A közösségi médiát működtető algoritmusokat tengernyi kritikával illették már. Ugyan a kísérleti és egyéb megfigyeléseken alapuló tudományos eredmények önellentmondásosak, nem támasztják alá egyértelműen a felelősségüket a politikai polarizáció és a visszhangkamrák kialakulásában, a nagy közösségi oldalak algoritmusai továbbra is „fekete dobozok”, azaz nem tudjuk pontosan, milyen alapelv szerint működnek. A BBC stábja úgy gondolta, hogy amennyiben az algoritmusok képesek véleménybuborékokat kialakítani, úgy kipukkasztásukra is lehet őket használni – így kezdődött a futurisztikusan hangzó közszolgálati algoritmus (public service algorithm) fejlesztése.
Hamis konszenzus
Kezdjük tehát a standard olvasattal: a közösségi oldalak adatot gyűjtenek a felhasználóik preferenciáiról, és a megfigyelések alapján az algoritmusaik igyekeznek olyan további tartalmakat felajánlani, amiket a felhasználó szívesen olvasna vagy megosztana. Első blikkre nem is tűnhet annyira veszélyesnek a mechanizmus: Kati néni szereti a virágokat, ezért a közösségi oldal egyre több kiskert-ápolással foglalkozó hirdetést és oldalt ajánl neki. Az elmúlt fél évtizedben azonban tapasztalhattuk, hogy ez leginkább politikai tartalmak esetében nemkívánatos mellékhatásokkal járhat. Míg Kati néni esetében nem probléma, hogy egyre inkább a virágnevelés felé fordul, egy konspiratív gondolkodású felhasználót preferenciái mentén az algoritmus egyre több konspiráció-elmélettel párnáz körbe, ami a társadalmi bizalom eróziójához és szélsőséges vélemények kialakulásához vezet.
A közösségi oldalakat működtető cégek célja nem az állampolgárok széles körű tájékoztatása - mondjuk - politikai kérdésekben, hanem az adott platformon eltöltött idő maximalizálása; minél több időt tölt el a felhasználó a platformon, annál több reklámot lát, és a reklámok nézésével eltöltött másodpercek mind-mind pénzre válthatóak a közösségi oldalak működtetői számára. Ennek folyományaként a felhasználó az algoritmus segítségével kialakít maga körül egy úgynevezett véleménybuborékot. Mivel az algoritmus áldatlan munkája nyomán egy idő után gyakorlatilag csak ilyen tartalmakat lát maga körül, kialakulhat benne az a téves hiedelem, miszerint a véleményét és tapasztalatait nagyon széles körben osztják mások is – ezt nevezik hamiskonszenzus-hatásnak. Ha mindez nem lenne elég, a digitális térben könnyen fellelhetőek a saját világlátásunkat magukénak valló csoportok is – legyenek ezek kis-kertészek vagy laposföld-hívők –, akik közösen létrehozzák a csoporthoz tartozás együttes élményeken és értékeken alapuló identitását. Erre a pontra elérkezvén egy nagyon súlyos problémával kell szembenéznünk: a hiedelmek önvédelmi mechanizmusával.
Ha kialakul a csoportidentitás, úgy a csoporttagok közt keringő hamis információkat és konspiráció-elméleteket irtózatosan nehéz kívülről megcáfolni: a csoporttagok ugyanis a cáfolatot a saját identitásuk, a társaikkal kialakított koalíciójuk elleni támadásként fogják értékelni. Mikor a The New York Times lehoz egy cikket arról, hogy Donald Trump nem mondott igazat, a tősgyökeres republikánus szavazók a közösségi oldalakon meghozzák az ítéletet: a hazug újság már megint „minket”, vagyis az igaz hazafiakat támadja (eközben Trump persze maga is „fake news”-nak bélyegzi a leírtakat). Az eredetileg kizárólag üzleti céllal operáló algoritmus így akarva-akaratlan előállítja a radikális, eltorzított világképpel rendelkező, csoportba verődött állampolgárokat, illetve azokat az alternatív valóságokat, ahol két felhasználó esetenként teljesen más forrásból és szemszögből tájékozódik a társadalmi történésekről.
Az én tükörképem
Az elmúlt fél évtizedben a fentebb felvázolt polarizációs karriert a kutatók alapos vizsgálatnak vetették alá. Úgy tűnik, hogy az emberek a saját meggyőződéseiknek megfelelő tartalmakat keresnek – az algoritmustól teljesen függetlenül is. A liberálisabb olvasók liberális beállítottságú újságokból, a konzervatívak konzervatív lapokból tájékozódnak inkább, és jelenleg nincs rá erős bizonyítékunk, hogy az online közösségek polarizáltabbak lennének, mint az offline közönség. A jelenség tudományos elnevezéséből, a megerősítési torzításból is kitűnhet, hogy a kutatók egy része irracionális viselkedésként tartja számon, hogy a saját igazunkat megerősítő tartalmakat keresünk, ahelyett hogy objektívan, a lehető legtöbb szemszögből próbálnánk megérteni egy-egy történést. Ezek a kutatók – még descartes-i hagyományokból kiindulva – úgy tartják, hogy az emberi agynak ideálisan egy pártatlan bíróhoz kellene hasonlítania, aki először összegyűjti az információt a lehető legtöbb forrásból, aztán ezeket egyesével mérlegelve végül meghozza a lehető legobjektívabb döntést.
A CEU-n vendégprofesszorként oktató Dan Sperber és munkatársai kutatása árnyalta ezt a – nem túl hízelgő – képet. Elméletük szerint az emberek nem azért gyűjtögetnek egyoldalú információkat, mert ostobák vagy irracionálisak, hanem mert az elméjük inkább egy ravasz ügyvédhez hasonlít, semmint pártatlan bíróhoz. Pontosan úgy, ahogyan az ügyvédek igyekeznek egyoldalú információkat gyűjteni a védencükről, hogy meggyőzzék az esküdteket, úgy mi is azért gyűjtjük a saját érzelmeinket és tapasztalatainkat egyoldalúan megerősítő információkat, hogy azokkal másokat meggyőzzünk, illetve igazoljuk vele a saját viselkedésünket és hiedelmeinket mások előtt. Az emberek társas lények, és csoportba szerveződve próbálják elérni a céljaikat. Hogy minél több embert nyerjenek meg a saját koalícióiknak, többek közt érvelésre és jó indokok egész sorozatára van szükségük, márpedig minél több jó indokot sikerül felhalmozni egy viselkedés, például egy adott párt támogatása mellett, elméletben annál több eséllyel tudnak valakit a saját oldalukra állítani. Az egyoldalú információk gyűjtögetése, bár nemkívánatos következményekkel jár, alapvetően adaptív viselkedés abban a társas közegben, ahol az emberi evolúció végbement.
Kipukkasztanák a buborékot
„A kognitív tudománnyal és szociálpszichológiával foglalkozó kutatók elvitatkozhatnak adaptív és irracionális közti különbségen, de valamit azért mégis lehetne tenni a párhuzamos valóságok és a politikai polarizáció ellen” – vélte a BBC stábja. Ekkor jött a közszolgálati algoritmus ötlete. A koncepció tulajdonképpen végtelenül egyszerű. Ha bizonyos pontossággal képesek vagyunk megjósolni, milyen tartalmak tetszenek a felhasználóknak, úgy azt is képesek lehetünk megmondani, hogy mi az, amivel nem feltétlen értenének egyet, illetve mi az a szempont, amivel eddigi preferenciáik fényében nem valószínű, hogy találkoztak. Nem lenne tehát túl bonyolult úgy alakítani egy tetszőleges közösségi oldal vagy akár a közmédia működését, hogy az önigazoló tartalmak mellett ellenvéleményeket is megjelentessen az olvasóközönség számára. Minden véleménycikkre, rádióhírre és podcastra, ami kiszolgálja a fogyasztó ízlését és világlátását, az algoritmus kötelező jelleggel feldobna olyan tartalmakat is, melyek a fogyasztó véleményével nem egyeznek.
Mindez persze nem vezet automatikusan oda, hogy az emberek az ellenvéleményekre rá is kattintanak és el is olvassák őket – de legalább valamennyire tudatában lesznek a megalapozott ellenvélemények létezésének és a társadalmi vita lehetőségének. A félreértéseket kerülendő, természetesen nem arról van szó – és a BBC sem erre törekszik – hogy a liberális világlátású olvasók számára elkezdenek Tommy Robinsont és az Angol Védelmi Ligát dicsőítő xenofób cikkeket mutogatni. Mindezt úgy képzeljük el, hogy egy ideális világban, ahol az emberek kiszervezik a tartalomszolgáltatást intézményeknek és gépeknek, az algoritmus feladata „meglepni” és „egészséges szkepszisre” nevelni a felhasználókat minőségi ellenvélemények bemutatásával. Mindez így tényleg nagyon idilli – talán kissé naiv is. A BBC ráadásul könnyebb helyzetben van, mint a híroldalak és közösségi platformok többsége, mivel nem függ a reklámbevételektől (a BBC-t egy adófajta, az állami televíziós licenc finanszírozza, ami 157 és fél fontba kerül évente minden brit háztartásnak). Árulkodó az is, hogy saját közszolgálati algoritmusuk, amit először a BBC Sound streaming szolgáltatón teszteltek, nem aratott osztatlan sikert. A felhasználók tartalomkeresési és navigálási nehézségekről számoltak be: egyszerűen nem jutottak hozzá ahhoz, amit tényleg szerettek volna. Úgy tűnik, az algoritmus finomhangolásra szorul, azaz meg kell határozni az arányt, ahol az emberek megkapják, amit szeretnének, de emellett mindig lehetőségük van szélesebb körben tájékozódni.
A kezdeti nehézségektől függetlenül a közszolgálati algoritmus koncepciója egy megvalósítható és viszonylag egyszerű javaslat. A kutatók és a helyzetet kezelni akaró, „digitális írásbeliséget” népszerűsítő civil szervezetek általában az oktatást szokták csodafegyverként emlegetni a visszhangkamrák és az álhírek ellen: az általuk hiszékenynek és esendőnek látott emberi elmét akarják frissíteni egy kritikusan gondolkodó és okos, 2.0-ás változatra. A BBC példája azt mutatja, hogy emellett rendelkezésre állnak azonnal bevethető és egyszerű megoldások is.