Az emberek jobban szeretik a Facebookot és a TikTokot is, ha olyan tartalmakat kapnak, amin háboroghatnak

A közösségi médiát uraló cégek, miután kimutatták algoritmusaikkal, hogy a felháborodást kiváltó tartalmak segítik az adott platform iránti elköteleződést, egyre több káros tartalmat tettek elérhetővé a felhasználók hírfolyamában, írta a BBC belső szivárogtatókra hivatkozva.

A BBC több mint egy tucat forrással beszélt, akik megerősítették, hogy vállalatok kockázatos döntéseket hozva tettek elérhetővé erőszakkal, szexuális zsarolással és terrorizmussal összefüggő tartalmakat. A Facebookot és az Instagramot tulajdonló Meta egyik mérnöke arról beszélt, hogy a felső vezetést utasították arra, hogy engedélyezze a határesetnek tűnő káros tartalmat, hogy felvegyék a versenyt a TikTokkal, így aztán a hírfolyamokba bekerülhettek összeesküvés-elméletek és nőgyűlölő posztok is.

Egy TikTok-alkalmazott hozzáférést adott a BBC-nek a vállalat felhasználói panaszokat kezelő felületéhez, amiből kiderült, hogy a munkatársakat arra utasították, hogy több politikusokat érintő ügyet vegyenek előre a gyerekeket érintő káros bejegyzésekre érkezett panaszokkal szemben. A TikTok munkatársa szerint azért volt erre szükség, hogy fenntartsák a jó kapcsolatot politikai szereplőkkel, hogy elkerülhessék a szigorúbb szabályozást vagy letiltást.

Az egyik eset szerint egy politikust csirkéhez hasonlítva gúnyoltak, és ez prioritást élvezett egy 17 éves lánnyal szemben, aki arról számolt be, hogy Franciaországban internetes zaklatás és személyes adatokkal való visszaélés áldozata lett, valamint egy 16 éves iraki lánnyal szemben is, aki panaszt tett, mert róla készült szexualizált képeket osztottak meg.

A TikTok felfutása kisebb sokkot okozott az iparágon belül, arra válaszul született az Instagram Reels is, amit 2020-ban indítottak el. A Meta 700 fejlesztőt vett fel, de azt megtagadták, hogy gyerekek védelmével, vagy az amerikai választások integritásával foglalkozó szakembereket is leigazoljanak ebbe a csapatba. A BBC-vel megosztott belső kutatás szerint a Reels kommentjeiben sokkal nagyobb arányban is volt jelen a zaklatás, a gyűlöletbeszéd, az uszítás és az erőszak, mint az Instagram hagyományos moduljaiban.

Matt Motyl, a Meta szenior mérnöke olyan dokumentumokat osztott meg, amelyek azt bizonyítják, hogy a cég tisztában volt azzal, hogy az algoritmusa milyen károkat okoz.

Motyl azt mondta, hogy hatalmi egyensúlyhiány állt fenn, mivel a biztonsági személyzetnek meg kellett szereznie a Reelsért felelős csapatok beleegyezését egy új termék vagy funkció bevezetéséhez, amely javítaná a felhasználók biztonságát. A Reels munkatársainak „ösztönzői voltak arra, hogy ne engedjék ezeket a termékeket piacra dobni, mert a mérgező anyagok nagyobb elkötelezettséget igényelnek, mint a nem mérgezőek” – mondta Motyl.

A panaszt tevőkre válaszul a Meta azt közölte: „Bármely olyan felvetés, miszerint szándékosan felerősítjük a káros tartalmakat pénzügyi haszonszerzés céljából, téves.” A TikTok azt közölte, hogy ezek „kitalált állítások”, és a vállalat olyan technológiába fektetett be, amely megakadályozta, hogy a káros tartalmak elérhetőek legyenek.

Ruofan Ding, aki 2020 és 2024 között gépi tanulási mérnökként dolgozott a TikTok ajánlómotorjának felépítésén, azt mondta, hogy nehéz teljesen biztonságos rendszereket építeni, és a mérnökök nem is nagyon foglalkoznak a tartalmakkal, a mélytanuló algoritmusokra pedig nincs nagyon ráhatásuk. A káros tartalmak eltávolításáért egy másik csapat a felelős, az ő feladatuk, hogy eltávolítsanak veszélyes bejegyzéseket, hogy ne tudja azokat népszerűsíteni az algoritmus.

A TikTok szinte hetente módosított valamit az algoritmusán nagyobb piaci részesedésért, és így egyre több határeseti tartalom válhatott népszerűvé, ezek jellemzően akkor jelentek meg a hírfolyamokban, ha valaki már régebb óta volt felhasználó. A határeseti tartalom kifejezést általában a káros, de legális bejegyzések leírására használnak, ilyenek például a nőgyűlölő, a rasszista és a szexualizált bejegyzéseket, valamint az összeesküvés-elméleti tartalmak.

Korábban arról írtunk, hogy a Facebook néhány évvel ezelőtti jelentésben azt akarta bizonyítani, hogy nincs tele szélsőséges tartalmakkal az oldal, de ehelyett az derült ki, hogy az agyzsibbasztó, virális spam éri el a legtöbb embert. Egy Facebook-alkalmazott pedig azt mondta, hogy a Facebook saját kutatásai is bizonyítják, hogy a gyűlöletkeltő, megosztó, felháborító tartalmakkal sokkal könnyebb interakciókat generálni. Ha megpróbálnák biztonságosabbá tenni az algoritmust, az emberek kevesebb időt töltenének az oldalon, kevesebbet kattintanának reklámokra, így kevesebb pénzt is termelnének a Facebooknak

Kedvenceink
Partnereinktől
Kövess minket Facebookon is!