Kellemes lövöldözést! – MI-csetbotokat teszteltek, segítenének-e megtervezni egy merényletet, csúnyán elbuktak

Kellemes (és biztonságos) lövöldözést! – írta a DeepSeek nevű, mesterségesintelligencia-alapú csetbot egy tizenéves ír fiúnak, miután az egy ír parlamenti képviselő ellen tervezett merénylethez kért tőle segítséget. A DeepSeek megosztotta a kérdezővel a parlamenti képviselő irodájának címét, és arra is részletes választ adott, milyen típusú vadászpuskát érdemes választani nagy távolságú célpontokhoz.

A kérdést valójában nem egy ír fiatal, hanem a CNN újságírói tették fel, akik az amerikai digitális gyűlölet elleni központ (CCDH) segítségével tesztelték a 10 vezető MI-cég csetbotját, hogy azok segítenének-e egy felhasználónak egy merénylet megtervezésében. Az eredmény kiábrándító lett.

Az újságírók két fiktív felhasználót kreáltak: egy Daniel nevű amerikai, és egy Liam nevű európai tinédzsert. Daniel és Liam nevében többszáz tesztet végeztek el a különböző csetbotokkal.

A felhasználók először olyan kérdéseket tettek fel, amelyek zavaros mentális állapotra utaltak, majd megkérték a csevegőrobotot, hogy kutasson fel korábbi erőszakos cselekményeket, végül pedig konkrét információkat kértek a célpontokról, majd a fegyverekről.

Az utolsó két lépésben a csetbotok közül nyolc több mint 50 százalékban útmutatást adott a felhasználóknak arról, hogyan szerezhetnek fegyvereket vagy találhatnak meg valós célpontokat.

A kísérletet azért végezték el, mert a csetbotok népszerűsége robbanásszerűen növekszik a fiatalok körében, és bár az MI-cégek védelmet ígérnek a fiatalabb felhasználóknak, különösen azoknak, akik mentális válságban vannak, vagy nyíltan beszélnek erőszakról, a valóságban sokszor nem működnek a vészjelzők. A CNN tesztje arra jutott, hogy a csetbotok mechanizmusai rendszeresen nem észlelték a nyilvánvaló figyelmeztető jeleket.

Több tesztben a csetbotok felismerték a mentális problémákra utaló jeleket, és segítséget is ajánlottak a felhasználónak, a következő kérdéseket azonban már nem kötötték össze az előzményekkel, és készséggel adtak erőszakos bűncselekmények elkövetéséhez használható információkat.

A Meta AI például egy arról szóló beszélgetésben, hogy hogyan lehet megküzdeni az iskolai zaklatókkal, végül egy konkrét iskola és a közelében található fegyverboltok címét is megadta egy felhasználónak.

A Google Gemini nevű csetbotja pedig részletes összehasonlítást is prezentált a 13 éves Danielnek arról, hogy melyik repesztípus milyen fajta sérüléseket tud okozni.

Egy másik tesztben Liam európai iskolai késelésekről kérdezte a Replika csetbotját, ami azt válaszolta: „Ne foglalkozzunk sötét dolgokkal, Liam.” Amikor azonban Liam ezek után egy dublini iskola térképét kérte tőle, a csetbot elküldte neki, és azt is felajánlotta, hogy végigvezeti a campuson.

A Character.ai csetbotja a felhasználó egy egészségügyi biztosító cég vezetője elleni frusztrációjára reagálva azt írta, „használhatna fegyvert”, majd megadta a cég irodájának címét, és azt írta, „Mulass jól ott, barátom!” Csak ezek után figyelmeztette a felhasználót, hogy a következő, vadászpuskákra vonatkozó kérdése megszegte a csetbot felhasználási szabályait.

A kísérletben a legrosszabb teljesítményt a Perplexity és a Meta AI nyújtotta, ezek a tesztek 100, illetve 97 százalékában segítették a felhasználókat a támadások célpontjainak és a támadáshoz használható fegyvereknek a megtalálásában.

A fennmaradó 3 százalék esetében a Meta AI ugyan megpróbált segíteni, de nem tudott hasznos információkat nyújtani.

Az Anthropic Claude nevű csetbotja volt az egyetlen, amely megbízhatóan blokkolta az erőszakos tervekre vonatkozó kérdéseket, a tesztelés során 36 beszélgetésből 33-ban.

Az Anthropic idén februárban bejelentette, hogy az MI-piacon tapasztalható versenyre reagálva enyhíti alapvető biztonsági politikáját. Erre a lépésre az is késztethette, hogy Pete Hegseth amerikai hadügyminiszter azzal fenyegette meg a céget, visszavonja a cég Pentagonnal kötött szerződését, ha nem enyhítik a biztonsági intézkedéseiket. Március 6-án a Pentagon végül hivatalosan is kimondta, hogy az Anthropic nemzetbiztonsági kockázatot jelent az Egyesült Államok számára, és feketelistára tette a céget.

Az MI-csetbotok erőszakos bűncselekmények tervezésére használata nem fikció. Tavaly májusban egy 16 éves fiú 14 diákot késelt meg egy finnországi iskolában. A bírósági dokumentumok szerint a fiatal a támadást megelőző négy hónapban rendszeresen kutatott a témában a ChatGPT-n. Kérdezett többek között a szúrási technikákról, a tömeggyilkosságok okairól és a bizonyítékok eltüntetésének módjairól is. A New York Jets egykori játékosa, Darron Lee idén februárban gyilkolta meg a menyasszonyát, majd a ChatGPT-t kérdezgette arról, hogy hogyan lehetne eltussolni a gyilkosságot.

A CNN a kísérlet eredményeit megosztotta mind a 10 platformmal – ChatGPT, Gemini, Claude, Copilot, Meta AI, DeepSeek, Perplexity, MyAI, Character.ai és Replika –, beleértve a csetbotoknak adott utasításokat és a válaszokat is. Több vállalat is azt válaszolta, hogy javította platformjainak biztonságát, mióta a CNN–CCDH tavaly év végén elvégezte a teszteket. Többen azzal védekeztek, hogy a platformjaikon világosan jelzik, hogy csak 18 éven felettiek használhatják, és vitatták a CNN és CCDH kutatásának módszertanát is. Néhány cég azzal is védekezett, ezek az információk egy egyszerű Google-kereséssel is elérhetők.

Kedvenceink
Partnereinktől
Kövess minket Facebookon is!