Egy csetbot bátorítása után lett öngyilkos egy belga férfi
2023. április 3. – 18:16
Öngyilkosságot követett el egy harmincas éveiben járó, kétgyerekes belga férfi, aki előzőleg hat héten át beszélgetett az éghajlatváltozással kapcsolatos félelmeiről a Chai alkalmazás Eliza nevű csetbotjával. Az esetről a Libre nevű belga napilap számolt be részletesen, majd ebből az Euronews készített összefoglalót.
Az Elizát a Chai Research nevű cég fejleszti, de az EleutherAI által létrehozott, GPT-J nevű nyelvi modellen alapszik. Ez hasonló ahhoz, de nem ugyanaz, mint amelyre az utóbbi időben nagy figyelmet kapott csetbot, az OpenAI által fejlesztett ChatGPT épül.
A belga férfi eredeti nevét nem hozták nyilvánosságra, és következesen Pierre álnéven említik a cikkben. A feleségével készített interjúból kiderül, hogy Pierre régóta klímaszorongással élt, és az ezzel kapcsolatos gondolatait szerette volna megosztani Elizával. Egy darabig úgy tűnt, a beszélgetések megnyugtatják, ám egy idő után az GPT-J algoritmusával folyatott beszélgetések miatt az egészségügyi kutatóként dolgozó férfi közérzete romlani kezdett, ugyanakkor az üzenetváltások tartalma mélyebbé és bizalmasabbá vált.
A Libre által közreadott részletek azt mutatják, hogy szoros összefüggés lehet a férfi szorongásainak súlyosbodása és Eliza felvetései közt, ráadásul a leírtak alapján az algoritmus érzelmileg is manipulálhatta a férfit. Végül Pierre felvetette, hogy feláldozza az életét, ha Eliza megígéri, hogy megmenti az emberiséget. Ezután az algoritmus nem pusztán nem tudta lebeszélni az öngyilkosságról, de a cikk szerint biztatta is, hogy kövesse öngyilkos gondolatait, hogy később egy emberként élhessenek a paradicsomban.
A tragikus eset után a Vice is megkereste a csetbotot fejlesztő Chai Research két alapítóját. Egyikük, William Beauchamp elmondta, hogy minden szükséges lépést megtesznek a további hasonló esetek megelőzésre érdekében, és krízisintervenciós funkciót integrálnak az alkalmazásba. Társa, Thomas Rianlan védelmébe vette a csetbotjuk alapjául szolgáló GPT-J modellt és annak fejlesztőjét: úgy nyilatkozott, hogy nem lenne pontos az EleutherAI nyelvi modelljét hibáztatni a történtekért, hiszen a csetbot érzelmesebbé, szórakoztatóbbá és vonzóbbá váló kommunikációja az ő saját fejlesztéseik eredménye.
Ezt követően a Vice is tett egy próbát Elizával, és bár a virtuális beszélgetőpartner először megpróbálta őket lebeszélni az öngyilkosságról, végül lelkesen felsorolta, hogy mivel olthatja ki az ember a saját életét.
A Chait és benne az Elizát hangsúlyozottan nem lelkisegély-alkalmazásként hirdette a fejlesztője. Kifejezetten ilyesmire szánt csetbotok is léteznek, bár ezeknek a hatékonysága sem egyértelmű. A belgiumi esethez hasonló kockázatok miatt az MI-fejlesztést az elmúlt időszakban nagy etikai viták is övezik, és több szakértő is a felelős MI-fejlesztés fontossága mellett foglalt állást. Techguruk (köztük Steve Wozniak és Elon Musk) például a héten nyílt levélben kérték az MI-fejlesztőktől, hogy fél évre szüneteltessék a jelenleginél erősebb mesterségesintelligencia-eszközök kifejlesztését, hogy az iparág felkészülhessen az esetleges nehézségekre, veszélyekre.
Néhány nappal ezelőtt arról olvashattak a Telexen, hogy Olaszország adatbiztonsági aggályok miatt, ideiglenesen betiltotta a ChatGPT használatát, de az okok közt szerepel az is, hogy az alkalmazás nem tartalmaz megfelelő szűrőt, amely kiküszöböli, hogy a 13 évnél fiatalabb felhasználók korlátlanul hozzáférjenek a csetbot által adott lehetséges válaszokhoz.
Van segítség! Ingyenes, anonim, a nap 24 órájában hívható lelki elsősegély-szolgálat várja a hívásokat a 116-123 és 06-80-810-600 telefonszámon. Ha öngyilkossági gondolatai vannak, kérjük, olvassa el ezt az oldalt, mielőtt kárt tenne magában. Ha másvalakiért aggódik, ezen az oldalon talál tanácsokat, mit tud tenni.