Musk MI-alapú csetbotja ezentúl nem készíthet szexuális tartalmú képeket valódi emberekről

Az Elon Musk tulajdonában lévő Grok, a korábban Twitterként ismert X mesterséges intelligencia alapú csetbotja többé nem alakíthatja át valódi emberek fényképeit úgy, hogy azokat „fedetlenül” ábrázolja, írja a Guardian. A döntést azután hozták, hogy ezerszámra kezdtek terjedni olyan tartalmak, amelyek létező személyekről, köztük kiskorúakról készült szexualizált deepfake képek voltak. A mesterséges intelligencia által készített explicit fotók világszerte heves reakciókat váltottak ki.

„Technológiai intézkedéseket hoztunk, hogy megakadályozzuk a Grokot abban, hogy valódi emberek fényképeit kitárulkozó ruházatban, például bikiniben mutassa. A korlátozás minden felhasználóra vonatkozik, beleértve a fizető előfizetőket is” – olvasható a Grokot üzemeltető X bejelentésében.

A lépést alig néhány órával azután hozták nyilvánosságra, hogy Elon Musk azt állította, nem tudott a Grok által készített „meztelen kiskorúakról készült képekről”. A Grok mesterséges intelligenciája valós nők és gyerekek képeit használta arra, hogy digitálisan „levetkőztesse” őket a beleegyezésük nélkül. Az elmúlt hetekben több ezer ilyen szexuális tartalmú MI-kép árasztotta el az X oldalát.

Az év elején egyszer már bocsánatot kért a Grok, miután egy felhasználó kérésére két fiatal lányt (becsült életkoruk 12-16 év) szexualizált ruházatban ábrázoló MI-képet generált, és azt meg is osztotta. Akkor azt írták, ezzel nemcsak a saját etikai szabályaikat sértették meg, de potenciálisan törvénysértést is elkövetettek. A csetbot magyarázata szerint hiba történt a belső biztonsági rendszerben, így csúszhatott át a pedofil tartalmú kérés, de az X MI-fejlesztői dolgoznak azon, hogy ilyen a jövőben ne fordulhasson elő.

Kedvenceink
Partnereinktől
Kövess minket Facebookon is!