Orosz és izraeli csoportok is használták dezinformálásra az OpenAI eszközeit

2024. május 31. – 10:36

Másolás

Vágólapra másolva

Csütörtökön közzétette első jelentését az OpenAI arról, hogyan használják mesterséges intelligencia eszközeit titkos befolyásolási műveletekre, és beszámoltak arról is, hogy a vállalat megzavarta az Oroszországból, Kínából, Izraelből és Iránból származó dezinformációs kampányokat – írja a 39 oldalas jelentésről a The Guardian.

A beszámoló szerint az érintettek a vállalat generatív AI-modelljeit használták arra, hogy propagandatartalmakat hozzanak létre és tegyenek közzé a közösségi médiaplatformokon, valamint lefordítsák tartalmaikat különböző nyelvekre. A jelentés szerint a kampányok egyike sem ért el nagy közönséget.

Az OpenAI 39 oldalas jelentése az egyik legrészletesebb beszámoló, amelyet egy mesterséges intelligenciával foglalkozó vállalat készített arról, hogy eszközeit hogyan használják fel dezinformálásra. Az OpenAI állítása szerint kutatói az elmúlt három hónap során öt olyan befolyásolási kampányt találtak és tiltottak le, amelyek az állami és magánszereplők titkos befolyásolási műveletéhez kapcsolódtak.

Oroszországban a fiókok az Egyesült Államokat, Ukrajnát és több balti országot bíráló tartalmakat hoztak létre és terjesztettek. Az egyik esetben egy OpenAI-modellt használtak a kód hibakeresésére és egy bot létrehozására, amely a Telegramban tett közzé üzeneteket. A kínai felhasználásnál angol, kínai, japán és koreai nyelven generáltak szövegeket, amelyet az operátorok aztán a Twitteren és a Mediumon tettek közzé.

Az iráni szereplők teljes cikkeket generáltak, amelyek az Egyesült Államokat és Izraelt támadták, és ezeket aztán angolra és franciára fordítottak le. Egy Stoic nevű izraeli politikai hátterű vállalat hamis közösségi profilokat működtetett. Ezek olyan posztokat tettek közzé, amelyekben pl. antiszemitizmussal vádolták az amerikai diákok izraeli-gázai háború elleni tiltakozásait.

Az OpenAI által a platformjáról letiltott dezinformációs terjesztők közül több olyan volt, akit a kutatók és a hatóságok már ismertek korábbról. Az amerikai pénzügyminisztérium például márciusban szankciókkal sújtott két orosz férfit, akik állítólag az OpenAI által felderített kampányok egyike mögött álltak, míg a Meta idén a Stoicot is kitiltotta a platformjáról, mert megsértette a szabályzatát.

„Mindegyik művelet használt valamilyen mértékben mesterséges intelligenciát, de egyik sem kizárólagosan” – áll a jelentésben. „Ehelyett az AI által generált anyagok csak egy voltak a sokféle tartalomtípus közül, amelyeket közzétettek, a hagyományosabb formátumok, például a kézzel írt szövegek vagy az internetről másolt mémek mellett”.

Bár egyik kampány sem ért el jelentős eredményt, létrehozásában szerepe volt a mesterséges intelligenciának. Az OpenAI kijelentette, hogy tervezi, hogy rendszeresen közzétesz hasonló jelentéseket a titkos befolyásolási műveletekről, valamint eltávolítja azokat a fiókokat, amelyek megsértik az irányelveit.

Kedvenceink
Partnereinktől
Kövess minket Facebookon is!