A Microsoft lezárta a kiskaput, amivel felnőtt tartalmú képeket generáltak Taylor Swiftről
2024. január 29. – 20:37
Nehezebb lett hírességekről szexuális tartalmú képeket generálni a Designerrel, a Microsoft mesterséges intelligenciás (MI) képalkotójával – írja a 404 Media. Bár a Designer keresője eddig sem adott ki találatot, ha valaki beírta egy híres ember nevét és például azt, hogy „meztelenül”, de egy egyszerű trükkel ezt át lehetett verni:
sok esetben elég volt kicsit elírni a híres ember nevét.
Erről és a kiskapu bezárásáról abban a 4chan és Telegram-csoportban egyeztetettek felhasználók, ahonnan a hétvégén kikerültek a Taylor Swifrtől készült deepfake képek. A képeket közösségi oldalakon tették közzé, és bár az oldalak ezeket később leszedték, addigra volt kép, ami már 47 milliós megtekintésnél járt. Joe Morelle amerikai képviselő „borzasztónak” minősítette a történteket. Jelenleg nincs szövetségi törvény a deepfake képek megosztásával vagy létrehozásával szemben, az amerikai politikusok azonban most azt sürgetik, hogy hozzanak ilyet létre.
A „deepfake” képek és videók létrehozása mesterséges intelligencia segítségével történik: egy 2023-as tanulmány azt is kimutatta, hogy 2019 óta 550 százalékkal nőtt az ilyen képek létrehozásának aránya. Az Egyesült Királyságban szintén 2023-ban lett illegális a deepfake pornográfia megosztása.
A Microsoft kihangsúlyozta, hogy a Designer felhasználói feltételei egyértelműen tiltják, hogy valakiről – a beleegyezésével vagy anélkül – felnőtt tartalmat generáljanak. A cég korábban azt mondta, hogy alapos vizsgálat után nem tudták megállapítani, hogy a Swiftről készült képeket valóban a cég képalkotójával generálták volna, de a Telegram-csatornában többen is arról panaszkodtak, hogy a kiskapu nem működik, és arról, hogy ha rákeresnek egy hírességre, a generált alak nagyjából csak etnikumban és hasonlít a keresett személyre. Ettől függetlenül a 404 Media szerint már találtak hasonló sérülékenységeket a Bingben és a Designerben is, így nincs még vége a deepfake-eknek.