Az emberek szeretnék megérteni, miért akar valaki hazudni nekik

Legfontosabb

2023. október 31. – 11:30

Az emberek szeretnék megérteni, miért akar valaki hazudni nekik
Beth Goldberg – Fotó: Budapest Forum

Másolás

Vágólapra másolva

Úgy tűnhet, hogy szélmalomharcot vívunk az álhírekkel és a dezinformációval kapcsolatban: a gázai–izraeli harcok még egy hete sem tartottak, amikor már arról lehetett hallani, hogy az X-en minden eddiginél több álhír látott napvilágot a konfliktussal kapcsolatban, de az orosz–ukrán háborúban is rengeteg volt a fals információ mind alulról jövő, mind propagandaként terjesztett narratívákban – a koronavírussal kapcsolatos összeesküvés-elméletek egy része pedig még mindig erősen tartja magát.

Úgy tűnhet, a helyzet egyre rosszabb – pedig vannak hatékonynak tűnő intervenciós módszerek, amelyekkel meg lehet tanítani az embereket arra, hogyan védekezzenek az álhírek ellen. Beth Goldberg, a Google Jigsaw csapatának kutatási vezetője ezt tanulmányozza, és vannak is már bizalomra okot adó megoldásai a konteók és a közösségi oldalakon terjedő szélsőséges, terrorista tartalmak visszaszorítására. Ezekről beszélgettünk vele a Budapest Fórumon.

Szomorúan aktuális kérdést jelentenek a gázai–izraeli harcokkal kapcsolatos álhírek, az Európai Unió már szinte mindegyik közösségi oldalt figyelmeztette ezek miatt. Mennyire különleges ez a konfliktus abból a szempontból, hogy mind az álhíreket, mind a szélsőségesség online terjedését meg lehet figyelni rajta keresztül?

Sok szempontból láttuk már ezt a mintát, úgy gondolom, hogy a legtöbb konfliktusnál jelen vannak mind az álhírek, mind a szélsőséges retorika. Hasonló volt ilyen szempontból az orosz–ukrán háború is. Az én csapatom nem gyűjt adatokat közvetlenül, nem áll rendelkezésünkre nagy mennyiségű kvantitatív információ. Inkább mélyebb etnográfiai kutatásokat végzünk, mélyinterjúkat készítünk, illetve azt kutatjuk, hogyan segíthetünk megelőzni, hogy az emberek elinduljanak a lejtőn, és elhiggyék az álhíreket.

A Google-nek az izraeli konfliktussal kapcsolatban a prioritása az volt, hogy a munkavállalóit biztonságban tudja, de ezen kívül a fő fókusz azon van, hogy elérhetők legyenek a megbízható és pontos információk. Az ember azért megy fel egy keresőre, hogy megtudja, mi történik a világban, főleg most, hogy a közösségi oldalak nem túl megbízhatók. Az egyik első számú dolog, amit krízis idején a Google tenni tud, az az, hogy előrébb sorolja a mérvadó tartalmakat. Egy ilyen helyzetben egész csapatok dolgoznak éjjel-nappal, hogy ha valaki az izraeli konfliktussal kapcsolatban keres, az megbízható és mérvadó forrásokat kapjon először. Azzal is foglalkoznak, hogy az erőszakos tartalmakat kiszűrjék. A terrorista és a Hamász-párti tartalmakat is folyamatosan törlik.

Ami még érdekes dimenziója ennek a konfliktusnak, az a kiberbiztonsági vonal. Tudunk néhány olyan kibertámadásról, amelyekkel az izraeli kormányzati weboldalakat célozták. Olyan kiberbiztonsági szakértőkkel dolgozunk, akik valós időben osztják meg az információikat nemcsak a Google-lel, hanem szélesebb körben is. A Google-nek van egy Mandiant nevű leányvállalata, aminek komoly kiberbiztonsági szakértői gárdája van. Több olyan álprofilt figyeltek meg, amelyek Iránhoz köthetők. Ezek a profilok több szolgáltatón keresztül Izrael-ellenes narratívákat hirdetnek az interneten. Több ilyen felhasználó terheléses támadásokhoz is köthető. Ezeknél nehéz megállapítani, hogy ki áll mögöttük, de úgy sejtjük, hogy Hamász-párti és oroszpárti hekktivista csoportok lehetnek, mert ezeket az izraeli weboldalakat célozzák.

Érdekes, hogy Izraellel kapcsolatban a kibertámadásokról kevésbé hallani, leginkább csak az álhírek szivárognak át a nyilvánosságba.

Igen, én sem láttam róluk sok tartalmat. Viszont a Jigsaw megalkotott egy technológiát, amit Project Shieldnek neveztünk el. A Krím félsziget 2014-es elfoglalására reflektálva fejlesztettük ki. Láttuk, hogy Oroszország még azelőtt kibertámadásokat indít, hogy szárazföldi erőket küldene a félszigetre. Néhány mérnökünk azt mondta, hogy azokat a védelmi vonalakat, amelyek a Google-szerverek körül vannak, kiterjeszthetnénk a helyi ukrán weboldalakra, és megvédhetnénk a civil szervezeteket, az újságírókat, a helyi kormányweboldalakat, amelyeket az oroszok megpróbálnak levágni a hálózatról.

Először átmeneti alapon próbáltuk ki 2014-ben. Nagyon jól működött. Úgyhogy csináltunk belőle egy jelentkezésre épülő programot. Bármilyen civil szervezet, újságíró jelentkezhet rá, és bizonyos kormányzati ügynökségek is alkalmasak lehetnek, hogy megkapják a hozzáférést. Most már több ezer weboldalt véd a Google pajzsa. Úgy érzem, ez nagyon releváns az izraeli történésekkel kapcsolatban is.

Ez itthon is hasznos lehet, idén a Telex és több más független médium is áldozata volt több terheléses támadásnak.

Hát igen, de lehet, hogy azért nem hallanak elegen róla, mert a Jigsaw-val az az egyik probléma, hogy nagyon kicsi, nincs túl nagy marketingbüdzsénk, mint a Google többi részének, így kevesen ismerik, mit csinálunk.

Ez miért van így?

Egyrészt azért vagyunk kicsik, mert ez lehetőséget ad arra, hogy gyorsan mozogjunk, váltsunk a különböző krízisek között. De nagyon örülünk, hogy a Google befektet a munkánkba, és úgy gondolom, hasznosak is vagyunk a cégnek, mert más technológiai vállalatoknál nem igazán vannak a miénkhez hasonló egységek.

Miken dolgozik most ez az csapat?

Sokat foglalkozunk azzal, hogyan előzhetnénk meg a manipulációt – ez nemcsak dezinformációt és álhíreket jelent, hanem szélsőséges retorikát is. Intervenciók hosszú sorát vizsgáljuk. Például azt, hogyan tudunk mentális ellenálló képességet fejleszteni az emberekben. Hogyan lehetünk képesek felébreszteni a mentális immunrendszerünket, a kritikus gondolkodásunkat, és hogyan tudunk védekezni?

Dolgozunk úgynevezett proszociális terveken is, hogy olyan rendszereket építsünk, amelyek arra ösztönöznek minket, hogy az interneten is önmagunk legjobb verziója legyünk. Ebben segíthet például, ha az építő jellegű kommenteket a felhasználók felszavazhatják, így a kommentszekciókban konstruktívabb párbeszéd alakulhat ki, kevesebb gyűlöletbeszéddel és zaklatással. Szuper kutatásokat végeztünk azzal kapcsolatban, hogy a gépi tanulás hogyan segíthet a kommentek rangsorolásában és a konstruktív beszélgetések felépítésében.

Gondolom, hogy az emberek nem szeretik, ha egy cég mondja meg nekik, milyen kommentek hasznosak, és milyenek nem. Milyen volt eddig a visszajelzés?

Egyelőre csak kezdeti kutatásoknál tartunk, és egyáltalán nem nyilvános még az egész, de az elképzelés az lenne, hogy az embereknek is lenne némi beleszólásuk a dologba. Megkérdezzük tőlük például, hogy szeretnének-e több személyes történetet látni egy adott témáról, vagy sokkal nyitottabb kérdéseket feltenni, választhatnának a nyelv különböző attribútumai közül. És ezek a nagy nyelvi modellek olyan menők, hogy lehetővé teszik, hogy modelleket építsünk ezekre az árnyaltabb fogalmakra. Nagyjából ezt takarja a proszociális oldala a kutatásainknak.

Úgy tudom, részletesen vizsgálják a „beoltás” módszertanát is. Tudna erről kicsit bővebben beszélni?

Igen, emiatt nagyon izgatott vagyok. Kevés olyan dolog van a munkám során, ami ennyire optimistává tenne. A beoltás teóriáját tulajdonképpen az 1960-as években találták ki. Most prebunkingnak hívjuk [nagyjából előcáfolásnak lehetne fordítani a szójátékot, ami az angol debunking, vagyis leleplezés szón alapul – a szerző], ez egy nagyobb portfólió része, olyané, ami az ilyen megelőző jellegű intervenciókat foglalja össze. Eredetileg azért tervezték a módszert, mert amikor a katonák háborúba indultak, fizikai védelmük volt ugyan, de a kormány kitalálta, hogy mentális védelemre is szükségük van. Hiszen akár kommunisták is elrabolhatják őket! Mi történne, ha hirtelen kommunistákká válnának?

Az egész módszert egy csapat pszichológus dolgozta ki egyfajta mentális védelmi vonalként. Nagyjából úgy működik, ahogyan a vakcinák, talán ez a legjobb metafora, ha el akarjuk képzelni: valaki megkapja az oltást, így a szervezete előre felkészül a vírussal való találkozásra. Már benne van a szervezetében egy kis része a vírusnak, így a test tudja, hogy mi ellen kell védekeznie. Antitestek termelődnek. Az előcáfolás hasonló módon működik, egy háromrészes üzenetet tartalmaz.

Először figyelmeztetjük az embereket, hogy valószínűleg propagandát fognak látni a neten, például az izraeli konfliktusnál Izrael-ellenes tartalmakat. Megmutatjuk, hogy néz ki az ilyen propaganda, a célszemély kap egy mikrodózist belőle. Aztán részletesen megcáfoljuk, adunk az embereknek antitesteket, megmutatjuk, miért hamis az adott információ.

Például mutatunk egy-két példát arra, hogy a menekülteket miért nem lehet mindenért felelőssé tenni, ami egy adott országban rossz, miért túlságosan leegyszerűsítő ez. Az emberek megkapják a megfelelő tudást, felszerelést ahhoz, hogy amikor valódi propagandával vagy álhírrel találkoznak a jövőben, tudják, hogy ezt már látták korábban, így próbálják őket átverni, és azt mondják: nem fogunk bedőlni neki. Fel tudják ismerni a korábbi érvek alapján.

Korábban ezt a megoldást maximum közegészségügyi helyzetekben használták. Emlékszem, gyerekkoromban hasonló taktikákat alkalmaztak a cigarettával kapcsolatban, hogy mit tegyen a gyerek, ha valaki cigarettát akar neki adni, hogyan mondjon nemet. Az internetre viszont még senki nem dolgozta át. A Jigsaw és az akadémiai partnerei az elmúlt négy-öt évben rájöttek, hogyan lehet az előcáfolást a közösségi médiába is jól átvinni. Rövid videókat készítettünk ebben a témában, van, amelyik nem hosszabb 30 másodpercnél, ennyibe bele tudjuk sűríteni az egész háromszakaszos előcáfolási formulát. Először akadémiai körülmények között teszteltük, hogy működik-e – a működésen azt értem, hogy az emberek képesek-e jobban kiszűrni az álhíreket, és kevésbé hajlamosak-e őket továbbosztani. Ezután a közösségi médiában is elkezdtük terjeszteni. Hirdetések segítségével osztjuk meg őket, így bármelyik civil szervezet, újságíró, tényellenőrző megteheti hasonlóképpen a TikTokon, a Facebookon, a YouTube-on, bárhol.

Az Egyesült Államokban öt ilyen videót teszteltünk. Ezekben bemutattuk a klasszikus technikákat, például a bűnbakképzést vagy a félelemkeltést, mindenféle konkrét álhír nélkül, csak általánosságban. De úgy, hogy az emberek képesek legyenek ezt adott álhírekre is alkalmazni. A laborban nagyon jól működött az egész, a politikai spektrum minden oldalánál, ami azért nem általános az álhírekkel kapcsolatban. Aztán a YouTube-on kezdtük el terjeszteni, meghirdettük egymillió amerikainak. Ezután másnap egy egykérdéses kvízzel targetáltuk őket. Azt akartuk tesztelni, hogy képesek-e alkalmazni is a félelemkeltés technikájával szemben, felismerik-e, ki tudják-e emelni egy mondatból. És ki tudták. Nagyon izgalmas volt. 5-10 százalékos javulást értünk el már egy egyperces videóval is.

Amikor az orosz–ukrán háború kitört, Varsóba és Prágába repültem, és egy csomó civil szervezettel, tényellenőrzővel, újságíróval, tudóssal találkoztam.

Megkérdeztem tőlük, hogy mire számítanak, milyen álhírek lesznek elterjedtek az ukrán menekültekkel kapcsolatban a következő három hónapban, mert meg akarjuk előzni őket.

Előre akarunk cáfolni, nem a már Facebookon terjedő álhíreket magyarázni. Azt akarjuk hallani, ami furcsa kis Telegram-csatornákon fog terjedni. Ezek a szakértők elmondták nekünk a narratívákat, két erősebbet találtunk, úgyhogy két különböző videót csináltunk. Ezeket felvettük lengyel, cseh és szlovák feliratos verzióban is. Aztán elkezdtük terjeszteni a különböző közösségimédia-csatornákon. Több mint 90 milliós megtekintésünk volt két hónap alatt, amíg ezek a hirdetések futottak. Elképesztő elérést tudtunk összehozni.

Mennyire volt sikeres a kísérlet a való életben?

Nagyrészt sikeres volt. Csak 2-3 százalékos átlagos javulást tapasztaltunk, de úgy voltunk vele, hogy ez csak egy hirdetés, az emberek nem figyelnek oda annyira rá. Talán már egyébként is erős prekoncepcióik voltak a menekültekkel kapcsolatban. Tavaly szeptember végén csináltuk a felmérést, a menekültkrízis már egy ideje téma volt mindenhol. Nagyobb volt viszont a hatás a fiatalabb közönségben. Ami érdekes, hogy Szlovákiában egyáltalán nem működött az előcáfolás. Mindkét videónál 0 százalékos javulást értünk el.

De miért? A feliratos videókra még kevésbé figyel oda az átlagos felhasználó?

Elképzelhető, igen, mi is szerettük volna tudni, mi történt. Úgyhogy csináltunk néhány followup-interjút különböző helyszíneken, és fókuszcsoportos kutatásokat is végeztünk. Részben valóban a felirat volt a probléma, de inkább az, hogy a menekültkérdés annyira polarizált az országban, hogy még az is túl fekete-fehér nekik, ha mi arra akarjuk őket rávenni, hogy védjék meg magukat az álhírekkel szemben. Úgy gondolták, hogy túlságosan menekültbarát retorikát képviseltünk. Bármi, ami nagyon megosztó volt nekik, azt ignorálták. Ezenkívül egyszerűen csak elhitték a különböző narratívákat.

Úgy gondolom, hogy még azok is, akik nem nagyon oroszpártiak, vagy nem hisznek nagyon az összeesküvés-elméletekben, elhitték, hogy a menekültek tényleg veszélyesek, vagy hogy problémát okoznak. Úgy gondolom, hogy ebben a témában itt elkéstünk. Már nem tudunk előcáfolni semmit. Nagyon érdekes rájönni, hogy ez a módszer nem működik minden témában, minden országban, minden idősávban, meg kell válogatnunk, hogyan tervezzük meg ezeket a videókat.

Kíváncsi lennék, Magyarországon milyen hatással lennének az ilyen videók, itt ugyanis már a szíriai menekülthullám óta megy a félelemkeltés a migrációval kapcsolatban.

Valószínűleg kevésbé lenne hatásos pont emiatt. Németországban is ezért aggódtunk – néhány héten belül elindul egy kampányunk ott, így nem tudom megosztani még az eredményeket, de annyit mondhatok, hogy tanultunk a szlovákiai tapasztalatokból, és úgy gondoltuk, hogy azokat a témákat, amelyek már eleve nagyon polarizáltak, nem úgy teszteljük, hogy egy adott álhírnarratívával próbálkozunk. Inkább kicsit eltávolodunk, és a manipulatív retorikai technikákról tanítunk, a félelemkeltésről, bűnbakkeltésről, arról, hogy milyen befolyásoló lehet, ha valamit kiemelünk a kontextusából.

Azt akarjuk megtanítani az embereknek, mire figyeljenek, anélkül hogy bármilyen politikai témát kiválasztanánk. Németországban három ilyen videót teszteltünk, és nagyon jól működtek. Úgy gondolom, minél több ilyen kampányt csinálunk végig, annál többet tudunk arról, hol mi működik. Talán a politikai üzenetek nem olyan hasznosak az ilyen polarizált országokban.

Említette, hogy korábban felkért civil szervezeteket, újságírókat, jósolják meg, milyen álhírek és dezinformáció fog terjedni egy adott témában a közeljövőben. Ezt hogyan lehet előrevetíteni?

A prebunkingban az az igazán jó, hogy nem kell specifikus témákat, álhíreket megjósolni. Nem kell azt megmondani, hogy melyik ukrán menekültről fogják elterjeszteni, hogy felégetett egy házat. Elég, ha azt tudom, hogy van egy általános narratíva az ukrán menekültekkel kapcsolatban, hogy veszélyesek. Vagy Izrael és a Hamász példájánál maradva: biztos, hogy lesznek állítások arról, hogy valamelyik fél biofegyvereket használt. Ezek a narratívák újra és újra ismétlődnek. Vissza tudjuk nézni, és meg tudjuk állapítani a mintákat a korábbi konfliktusokból, és a korábban említett mögöttes technikákat is meg tudjuk jósolni. Tudjuk, hogy egy konfliktus esetében biztosan lesz félelemkeltés azzal kapcsolatban, hogy el fog érni téged is, megtámadják, megszállják az országodat.

A civil szervezetek, think tankek, egyetemi kutatók nagyon jók abban, hogy ezeket a múltbeli mintákat felismerjék, és megmondják nekünk, hogy x, y és z narratívák valószínűleg megjelennek majd. A jövőben valószínűleg tudjuk majd ennek egy részét automatizálni is, mind az előrejelzéseket, mind azt, hogy rajta tartsuk az ujjunkat a közösségi média peremterületein, és tudjuk, ha egy diskurzus elkezdődik. Ekkor kell előre megcáfolnunk, mielőtt még mainstreammé válik.

Gondolja, hogy ez az előcáfolás előbb-utóbb feleslegessé teszi majd a tényellenőrzést? Vagy mindkettő inkább egy csomag része, ami együtt a leghatásosabb?

Abszolút csomagban működnek ezek jól. Kiegészítik egymást. Az előcáfolás magasabb szinten működik általános narratívákkal, általános technikákkal, de mindig lesz olyan álhír és dezinformáció, aminél nagyon specifikus állításokat kell megcáfolni. Ekkor jön be a tényellenőrzés.

Egy korábbi magyar kutatás kimutatta, hogy hatékony módszer az álhírek terjedése ellen az is, ha egyszerűen nem nézzük inkompetensnek az embereket, nem szabad, hogy azt érezzék, szükségük van segítségre, hogy leküzdjék a tudatlanságukat. Lehet ennek is köze ahhoz, hogy az előcáfolás működik?

Abszolút így van, az emberek nem szeretik, ha megmondják nekik, mi igaz, és mi nem. Szeretnék megérteni, mi hogyan működik, és miért akar valaki hazudni nekik. Amit igazán szeretek az előcáfolásban, és amiért szerintem igazán működik, az az, hogy elmagyarázza az álhírterjesztő motivációit. Van erre egy nagyon jó játék is, az a címe, hogy The Bad News Game, amiben a felhasználónak az álhírterjesztő szerepében kell minél nagyobb elérést szereznie a saját narratívájának. Amikor erre rábukkantam, azt mondtam, hogy ezt meg kell csinálnunk videós formában is. Öt évvel ezelőtt így indult az előcáfoláshoz vezető utam.

Magyarországon a tényellenőrzésnek már erős politikai felhangja van, sokan már a műfajtól is ódzkodnak, a politika pedig ezt fegyverként használja arra, hogy hergeljen az újságírók ellen.

Tudom, nagyon nem szerencsés, hogy politikai töltetűvé vált az egész. Úgy gondolom, hogy ez több országban ugyanígy van. De nagyon fontos a tényellenőrzés. Tudom, hogy a Google sokat fektet bele még mindig. Idén 30 millió dolláros támogatást adott a Nemzetközi Tényellenőrző Hálózatnak. Az is nagyon fontos, hogy a Google előrébb sorolja a megbízható, ellenőrzött állításokat például a háborúkkal kapcsolatban.

A tényellenőrzők azok, akik segíthetnek megtervezni az előcáfolatokat. Amikor tavaly Prágában voltam, egy AFP-tényellenőrrel beszélgettem a koronavírus-álhírekről. Meg tudta mutatni, hogy milyen mintázatot követnek. Elmondta, mi volt a három legelterjedtebb narratíva a vírussal kapcsolatban Csehországban. Ez a típusú tudás átvezethető az előcáfolatokhoz is. Ugyanez a helyzet az orosz–ukrán háborúval, a gázai–izraeli konfliktussal is. Megvannak a mintázatok. Ez pedig azért veszélyes, mert a minták átverik az agyunkat, ismerősek, ezért jelentkezik az ismertségi elfogultság. Hajlamosabbak vagyunk elhinni őket, mert hallottuk már őket más variációkban korábban. A rosszakarók ezt pontosan tudják.

A legtöbb álhírekkel és dezinformációval kapcsolatos kutatás a nyugati országokban zajlik, Ázsia és Afrika eléggé vakfoltnak tűnik a témában. Vannak arra törekvések, hogy ez megváltozzon?

Igen, ezt én is így látom, persze nem beszélek minden nyelven, de úgy tűnik, sokkal több a kutatás arra vonatkozóan, hogy a nyugati országokban mi működik, és mi nem. Ez mindenképpen olyan dolog, amin változtatni szeretnénk. Most zajlik egy nagyobb volumenű kutatásunk Indiában, és egy előcáfoló kampányunk Indonéziában. De abszolút igaza van, sokkal többet kell tennünk, mert nem tudjuk, hogy minden módszer átvihető-e ezekre az országokra. Ugyanúgy, ahogy másra van szükség egy teljesen nyitott demokráciában és egy kicsit zártabb illiberális demokráciában.

Egyelőre még nincsenek adataim arról, hogy Indiában például bevált-e az amerikai módszer. Úgy gondolom, hogy azon is sok minden múlik, hogy mennyire individualista vagy kollektivista egy adott társadalom. Az előcáfolás nagyon individualista módszer jelenleg, arra világít rá, hogy védd meg magad, védd meg a saját agyad. Talán egy olyan országban, mint amilyen Japán vagy Indonézia is, arra kellene fókuszálnunk, hogyan védjük meg a családunkat, lehet, hogy jobban működne. Sok a nyitott kérdés még.

A mesterséges intelligencia most nagyon forró téma. Úgy sejtem, hogy a dezinformáció területén rengeteg a pró és a kontra érv is az MI fejlődésével. Ön hogy látja, merre billen a mérleg nyelve?

A múlt héten tartottam beszédet diákoknak Romániában és Moldovában a mesterséges intelligencia előnyeiről és hátrányairól, különösen a generatív MI-eszközökről. Először is le kell szögezni, hogy ezek nagyon jó új lehetőségeket nyitnak meg. Mindannyian lehetünk például művészek anélkül, hogy iskolába járnánk hozzá. Könnyen vizualizálhatunk egy nagyon bonyolult kémiai kísérletet egy fizikai kutatáshoz. Létrehozhatunk egy teljesen új videót mindössze néhány parancs megadásával. Tanuláshoz és a kulturális határok átlépéséhez nagyon nagy segítség lesz.

A csapatom viszont többet fókuszál az MI hátrányaira. Az MI az interneten létező összes kockázatot sokszorosítja. A szélsőséges csoportok targetált toborzást végezhetnek, személyre szabottabb lehet a propaganda, nagyobb mennyiségben áraszthatják el álhírkampányok a felületeket. Ezt látjuk most az X esetében is. Aggódom. Éppen azt kutatjuk, hogy mik lehetnek a különböző mitigációs stratégiák.

Tudom, hogy a Google és más cégek is sok pénzt ölnek abba, hogy vízjelezzék és megjelöljék, ha valami mesterséges intelligenciával készült, de úgy gondolom, hogy több pénzt kéne arra is fordítani, hogy megtanítsuk az embereket arra, ezek mit jelentenek pontosan. Ha már megépítjük ezt a menő, új technológiát, de az emberek nem értik, mi az a vízjel, akkor el fog bukni. Érdekes lehet az előcáfoláshoz hasonlóan megmutatni az embereknek, hogy milyen jelekre figyeljenek oda, amik arra utalhatnak, hogy mesterséges intelligencia nyomára bukkantak. Meg kellene tanítani nekik a generatív MI-technikákat, és hogy mik a megbízható tartalmak jelei.

Azt hiszem, a Jigsaw vezérigazgatója, Yasmin Green nyilatkozta valahol, hogy az álhírek esetében is célszerűbb lenne inkább a megbízható tartalmakat megjelölni a hamisak helyett. Erről mi a véleménye?

Úgy gondolom, hogy van értelme, hiszen hamarosan annyi automatikusan generált álhír kering majd az éterben, hogy lehetetlen lesz megtalálni az összeset. Mindig macska-egér játékot játszunk majd. Talán a valós és hiteles információ megjelölésével kellene inkább foglalkoznunk. Ez például most nagyon jól működik a Google-nél, a gázai–izraeli harcokkal kapcsolatban az olyan médiumokat sorolja előre, mint a BBC, a New York Times vagy például a Telex, hogy az emberek biztosan valós információkhoz jussanak azonnal, mielőtt az álhírek elérnék őket. Úgy gondolom, hogy ez nagyon fontos.

Említette, hogy fiatalabb közönségnek tartott beszédeket nemrég. Lát generációs különbségeket abban, hogy a fiatalok hogyan viszonyulnak az álhírekhez?

Éppen most fejeztünk be néhány mélyebb kutatást a Z generációról. 13–24 éves amerikai és indiai fiatalokkal beszélgettünk, és azt akartuk megtudni, hogy mennyire fogyasztják máshogy az információt az idősebb generációkhoz képest. Hogyan döntik el, mi az igaz, és mi a hamis? Kiben bíznak, és kiben nem? Hogyan töltik egyáltalán az idejüket online? Használják-e a generatív MI-t? Erről megjelent már két tanulmányunk.

Ami nagyon érdekes, hogy a Z generáció nem úgy végzi a tényellenőrzést, mint az idősebb generációk, nem nézi meg külön a forrást, hogy ki pénzeli azt az oldalt, ahol a hír megjelenik, kevésbé a médiatudatosság felé megy el. A fiatalok a szociális jelekre figyelnek inkább. Lehet, hogy ez az életkor sajátossága is, tinédzserkorban az ember jobban ad a társai jelzéseire. De úgy gondoljuk, hogy ennek egy része specifikus lehet a Z generációra, mert ők azt próbálják megérteni, hogy milyen egy adott fogalom, konfliktus, akár egy híresség szociális hőmérséklete. Figyelik a kommentszekciót, az elköteleződési statisztikákat, lájkokat, diszlájkokat, megosztásokat. Ezek a jelzések nekik aránytalanul fontosak a többihez képest, és ezek alapján dőlnek be az álhíreknek is.

A másik kutatás, amit végeztünk, a generatív mesterséges intelligenciára fókuszált, itt az eredmények kicsit ijesztők voltak. A fiatalabb generáció túlságosan bízik a saját képességeiben. Persze új dolgokat is tanultunk tőlük az interjúk során, nagyon jók abban, hogy a legújabb eszközöket használják, ebben nőttek fel. De túlságosan bíznak a gépek képességeiben is. Úgy gondolják, hogy ha a technológia ellepte az internetet, akkor biztosan jól is működik.

Most azon dolgozunk, hogy rájöjjünk: hogyan használhatjuk ezeket a jeleket a kommentszekcióban arra, hogy a fiatalok segítsenek egymásnak, ha már úgyis erre támaszkodnak. Itt kellene egymásnak tanácsokat adniuk? Akár tényellenőrizhetik egymás állításait a kommentekben. Hasonló alapon működik az X közösségi jegyzet nevű eszköze is, ami nagyon ígéretesnek tűnik. Szerintem az ilyen típusú intervenció jól működne a Z generációnál is. Gyakorlatilag szétosztott tényellenőrzésről beszélünk. Ez nem tudja kiváltani az autoritatív tényellenőrzést, de úgy gondolom, hogy az emberek jobban bíznának benne, és jól skálázható. Akár még menővé is válhat, hogy az emberek nyilvános terekben ellenőrizzék egymás állításait.

Ha már az X-ről beszélünk: a gázai–izraeli harcokról elképesztő mennyiségű álhír öntötte el a felületet, már az Európai Unió is vizsgálódik. Erről mi a véleménye?

A platformról csak személyes megfigyeléseim vannak, én már nem használom, de nem is kutattuk a hatásait. Ha a trendeket nézzük, egyfajta fragmentáció figyelhető meg a közösségi médiában. Az, hogy az X gazdát cserélt, és megváltoztak a moderációs alapelvek, felgyorsította ezt a töredezést. Ennek pedig komoly következményei vannak. Az emberek egyre inkább privát csoportokba migrálnak például Telegramon és WhatsAppon. Ennek hatása van arra is, hogy milyen típusú álhíreket látunk. Egyre több a mikroinfluenszer – a közösség már nem a szupersztárt követi 10 millió követői bázissal, hanem a másik hangadót 10 ezer, akár ezer követővel. Belőlük sokkal több van, így egyre nehezebb a kutatóknak követniük és megcáfolniuk a terjedő teóriákat. Ez egy nagyon aggasztó trend.

Gondolom, a kutatást megnehezítik a zárt csoportok, mert a kvantitatív adatokat nehéz ezekből a csoportokból kinyerni.

Igen, volt néhány lépés a jó irányba, és volt néhány a rossz irányba ezen a téren. Néhány platform megnyitotta az API-kat, és megkönnyíti a kutatóknak, hogy hozzáférjenek az adatokhoz. Tudom, hogy a YouTube például kibővítette a kutatói hozzáférést, és a TikToknak is van egy új kutatói API-ja. De összességében igen, az adatokhoz való hozzájutás nehéz, és az egységesítés hiánya is nehezíti.

Össze lehet hasonlítani ilyen kutatásokkal azt, hogy melyik platformon milyen összeesküvés-elméletek és álhírek terjednek, és hogyan?

Platformonként erre nincs adatom, mi több ilyenen átívelő kutatásokat készítünk, mert a különböző platformoknak különböző az API-juk, és más mérőszámokat is használnak. Ezért nagyon nehéz így összehasonlítani például egy YouTube-videót egy zárt Facebook-csoporttal. Ezért kevés az ilyen nagy, platformok közötti tanulmány. A George Washington Egyetemmel dolgoztunk ilyen kutatáson, körülbelül tíz különböző platformról húztunk le adatot, és megnéztük, milyen a gyűlölet-ökoszisztéma. Azt hiszem, 1500-2000 csoportot találtunk, néhányuk Telegram-csatorna volt, néhányuk nyilvános Facebook-csoport.

Azokból gyűjtöttünk adatot, amelyekben megjelent valamiféleképpen a gyűlöletbeszéd. Összehasonlítottuk azokat, akik ezeket a posztokat írják. De ez nagyon sok munka csak egy témára. Ha az összeesküvés-elméleteket holisztikusan tanulmányoznánk, az nagyon nehéz lenne. Nem vagyok benne biztos, hogy bárki csinálja. Talán a jövőben a mesterséges intelligenciával könnyebb lesz. Vagy ha lesznek olyan szabályozások az adatokhoz való hozzáférésről, amik megkönnyítik a kutatók hozzáférését.

Nagyon érdekelne a véleménye arról a perről, amit a Google ellen indított a 2015-ös párizsi terrortámadás egyik áldozatának családja, mert szerintük a YouTube algoritmusa segíti és felbujtja a terrorista csoportokat.

Perekkel kapcsolatban nem mondhatok sajnos semmit.

Akkor kicsit ettől eltávolodva, mit gondol, a közösségi média felelős lehet azért, hogy ilyen szélsőséges hangokat felerősít?

Nem. Én úgy gondolom, hogy a közösségi platformokat úgy tervezték meg és úgy is szabályozzák az Egyesült Államokban, hogy csak más emberek gondolatainak otthont adó platformok legyenek. A kommunikációs tisztességről szóló törvény 230. szakasza védi ebben őket. Ehhez mérten tervezték a saját szabályaikat. Ha ez a törvény megváltozik, talán a válaszom is más lesz. De jelenleg nem vonhatók felelősségre az ilyen hangokért. Sok közülük rengeteget tesz azért, hogy az ilyen tartalmakat eltüntesse. Ez része annak, hogy meg akarják védeni a felhasználókat, különben azok nem akarnak majd a platformra jönni. Sőt, olyanról is tudunk, hogy emberek elhagynak bizonyos közösségi oldalakat, mert az nem távolítja el túl hatékonyan a szélsőséges és terrorista retorikát. De a lényeg az, hogy mindegyik platform a törvények szerint működik.

Értem, hogy megfelelnek a jogi kötelezettségeiknek, de nem gondolja, hogy van morális felelősségük abban, hogy ezeket a narratívákat visszaszorítsák?

A „morális” nagyon érdekes szó, ha a vállalatokkal kapcsolatban értelmezzük. Diákként írtam hasonlókról, kutatási asszisztens voltam egy tanulmánynál, ami pontosan erről szólt. És ösztöndíjas voltam egy Article 19 nevű nonprofit csoportnál is, ami az internetes önkifejezésre és a szólásszabadságra fókuszált. Arról is írtam, hogy néhány platformnak nem kellene saját jogon döntést hoznia arról, hogy mi számít helyes posztnak, és mi helytelennek. De ezek inkább a személyes véleményemet takarják.

Az a baj, hogy az emberek mindig egyszerű megoldásokat keresnek a komplex problémákra. Amit még senki nem kutatott, az az, hogy a különböző beavatkozások kombinációja hogy működik akár a szélsőséges beszéd terjedésének visszaszorításában, akár az álhírek ellen. Mi csináltunk ilyet először. Ezek nagyon hasznosak az embereknek, hogy jobban felismerjék, mi a téves információ, vagy hogy megállítsa őket abban, hogy továbbosszák azt. Számomra ezek jelentik a jövőt. Kicsit optimista is vagyok velük kapcsolatban.

Kapcsolódó
Partnereinktől
Kövess minket Facebookon is!