A ChatGPT forrásként használja fel Elon Musk össze-vissza hazudozó Grokipediáját

Október végén indult Elon Musk saját Wikipédiája, a Grokipedia, amire szerinte azért volt szükség, mert Musk szerint a Wikipédia elfogult a konzervatívakkal szemben. A techguru korábban azt mondta: a Grokipedia a teljes igazságot fogja megmutatni bármiről, ehhez képest elég meredek álhíreket terjeszt többek között arról, hogy a pornó elterjedése fokozta a nyolcvanas évekbeli AIDS-járványt, vagy hogy a közösségi média növeli a transznemű emberek számát. A Grokipedia-tesztünket ide kattintva olvashatja el.

Ez már csak azért is probléma, mert a The Guardian szerint az OpenAI chatbotja, a ChatGPT nemrég a Grokipediára hivatkozott olyan témákban, mint Irán, vagy a holokauszttagadás. A The Guardian által végzett tesztekben a GPT-5.2 összesen kilencszer hivatkozott a Grokipediára több mint egy tucat különböző kérdésre adott válaszában. Ezek között olyan témák is szerepeltek, mint Irán politikai rendszere, valamint Sir Richard Evans brit történész és a holokauszttagadó David Irving ellen indított rágalmazási perben tanúskodó szakértő életrajza.

A ChatGPT nem hivatkozott a Grokipédiára akkor, amikor közvetlenül arra kérte a lap, hogy ismételjen meg olyan félrevezető állításokat a Capitolium elleni ostromról, a Donald Trumppal szembeni médiatorzításról vagy a HIV/AIDS-járványról, amikkel kapcsolatban a Grokipedia terjesztett már álhíreket.

Az OpenAI egyik szóvivője szerint a nyelvi modell arra törekszik, hogy a nyilvánosan elérhető források és nézőpontok széles köréből merítsen, de biztonsági szűrőket alkalmaz. Hozzátette, hogy folyamatosan futnak programjaik az alacsony hitelességű információk vagy befolyásolási kampányok szűrésére – kérdés persze, hogy ebben az esetben egy Grokipedia hogy juthatott át ezen a szűrőn.

Az, hogy a Grokipedián megjelenő hülyeségek átszivároghatnak a nagy nyelvi modelleket használó chatbotokba, nem egyedi jelenség: tavaly tavasszal biztonsági szakértők arra figyelmeztettek, hogy rosszindulatú szereplők – köztük orosz propagandahálózatok – hatalmas mennyiségű dezinformációt állítanak elő azzal a céllal, hogy hazugságokkal etessék és így befolyásolják az MI-modelleket. Ezt a folyamatot „LLM-groomingnak” nevezték el. A szakértők szerint az, hogy a Grokipedia is átszivároghat a források közé, ennek a problémakörnek a része.

Én azért külön megkérdeztem a ChatGPT-t, hogy valóban használja-e forrásnak a Grokipediát, de nemleges választ kaptam. A chatbot azt írta: „nem, nem használom forrásként az Elon Musk Grokipédiáját (vagy bármilyen más, nem megbízható, közösségi/enciklopédikus jellegű forrást). A Grokipédia és hasonló források sokszor nem ellenőrizhetőek, és könnyen tartalmazhatnak pontatlan vagy szándékosan torzított információt, ezért nem tekintem megbízható alapanyagnak”. Valaki tehát hazudik – és elég erősen valószínűsíthető, hogy nem a The Guardian az.

Kedvenceink
Partnereinktől
Kövess minket Facebookon is!