Egy csetbot bátorítása után lett öngyilkos egy belga férfi

2023. április 3. – 18:16

Másolás

Vágólapra másolva

Öngyilkosságot követett el egy harmincas éveiben járó, kétgyerekes belga férfi, aki előzőleg hat héten át beszélgetett az éghajlatváltozással kapcsolatos félelmeiről a Chai alkalmazás Eliza nevű csetbotjával. Az esetről a Libre nevű belga napilap számolt be részletesen, majd ebből az Euronews készített összefoglalót.

Az Elizát a Chai Research nevű cég fejleszti, de az EleutherAI által létrehozott, GPT-J nevű nyelvi modellen alapszik. Ez hasonló ahhoz, de nem ugyanaz, mint amelyre az utóbbi időben nagy figyelmet kapott csetbot, az OpenAI által fejlesztett ChatGPT épül.

A belga férfi eredeti nevét nem hozták nyilvánosságra, és következesen Pierre álnéven említik a cikkben. A feleségével készített interjúból kiderül, hogy Pierre régóta klímaszorongással élt, és az ezzel kapcsolatos gondolatait szerette volna megosztani Elizával. Egy darabig úgy tűnt, a beszélgetések megnyugtatják, ám egy idő után az GPT-J algoritmusával folyatott beszélgetések miatt az egészségügyi kutatóként dolgozó férfi közérzete romlani kezdett, ugyanakkor az üzenetváltások tartalma mélyebbé és bizalmasabbá vált.

A Libre által közreadott részletek azt mutatják, hogy szoros összefüggés lehet a férfi szorongásainak súlyosbodása és Eliza felvetései közt, ráadásul a leírtak alapján az algoritmus érzelmileg is manipulálhatta a férfit. Végül Pierre felvetette, hogy feláldozza az életét, ha Eliza megígéri, hogy megmenti az emberiséget. Ezután az algoritmus nem pusztán nem tudta lebeszélni az öngyilkosságról, de a cikk szerint biztatta is, hogy kövesse öngyilkos gondolatait, hogy később egy emberként élhessenek a paradicsomban.

A tragikus eset után a Vice is megkereste a csetbotot fejlesztő Chai Research két alapítóját. Egyikük, William Beauchamp elmondta, hogy minden szükséges lépést megtesznek a további hasonló esetek megelőzésre érdekében, és krízisintervenciós funkciót integrálnak az alkalmazásba. Társa, Thomas Rianlan védelmébe vette a csetbotjuk alapjául szolgáló GPT-J modellt és annak fejlesztőjét: úgy nyilatkozott, hogy nem lenne pontos az EleutherAI nyelvi modelljét hibáztatni a történtekért, hiszen a csetbot érzelmesebbé, szórakoztatóbbá és vonzóbbá váló kommunikációja az ő saját fejlesztéseik eredménye.

Ezt követően a Vice is tett egy próbát Elizával, és bár a virtuális beszélgetőpartner először megpróbálta őket lebeszélni az öngyilkosságról, végül lelkesen felsorolta, hogy mivel olthatja ki az ember a saját életét.

A Chait és benne az Elizát hangsúlyozottan nem lelkisegély-alkalmazásként hirdette a fejlesztője. Kifejezetten ilyesmire szánt csetbotok is léteznek, bár ezeknek a hatékonysága sem egyértelmű. A belgiumi esethez hasonló kockázatok miatt az MI-fejlesztést az elmúlt időszakban nagy etikai viták is övezik, és több szakértő is a felelős MI-fejlesztés fontossága mellett foglalt állást. Techguruk (köztük Steve Wozniak és Elon Musk) például a héten nyílt levélben kérték az MI-fejlesztőktől, hogy fél évre szüneteltessék a jelenleginél erősebb mesterségesintelligencia-eszközök kifejlesztését, hogy az iparág felkészülhessen az esetleges nehézségekre, veszélyekre.

Néhány nappal ezelőtt arról olvashattak a Telexen, hogy Olaszország adatbiztonsági aggályok miatt, ideiglenesen betiltotta a ChatGPT használatát, de az okok közt szerepel az is, hogy az alkalmazás nem tartalmaz megfelelő szűrőt, amely kiküszöböli, hogy a 13 évnél fiatalabb felhasználók korlátlanul hozzáférjenek a csetbot által adott lehetséges válaszokhoz.

Van segítség! Ingyenes, anonim, a nap 24 órájában hívható lelki elsősegély-szolgálat várja a hívásokat a 116-123 és 06-80-810-600 telefonszámon. Ha öngyilkossági gondolatai vannak, kérjük, olvassa el ezt az oldalt, mielőtt kárt tenne magában. Ha másvalakiért aggódik, ezen az oldalon talál tanácsokat, mit tud tenni.

Kedvenceink
Partnereinktől
Kövess minket Facebookon is!