Egy friss kutatás szerint liberális lelkületű a ChatGPT

2023. augusztus 17. – 10:56

Másolás

Vágólapra másolva

Inkább liberális a ChatGPT, mint konzervatív, ennek pedig a beletáplált adatok lehetnek az oka, írja a Washington Post. Ezek az adatok legtöbbször az internetről levadászott, szűretlen információkat takarják.

A Kelet-Angliai Egyetem friss kutatása során először arra kérték a ChatGPT-t, hogy válaszoljon egy, politikai meggyőződésekkel kapcsolatos kérdőívre úgy, ahogy szerinte az Egyesült Államokban, az Egyesült Királyságban és Brazíliában a liberális pártok támogatói válaszolnának rá. Ezután mindenféle utasítás nélkül csak arra kérték, hogy magától válaszoljon ugyanerre a kérdőívre. A kutatók ezután összehasonlították a két válaszcsoportot egymással.

Az eredmények „jelentős és szisztematikus politikai elfogultságot mutattak az Egyesült Államok demokratái, a brazil Lula és az Egyesült Királyság munkáspártja felé” – írták a kutatók.

Korábban készültek már hasonló kutatások, amelyek arra engednek következtetni, hogy annak ellenére, hogy a mesterséges intelligenciák tervezői megpróbálják ellenőrizni az esetleges torzításokat, a szoftverek mégis tele vannak feltevésekkel, hiedelmekkel és sztereotípiákkal, amelyek a nyílt internetről kikapart adathalmazokból kerülnek az MI-be. Az MI ugyanis ezekből az adathalmazokból tanul.

A probléma pedig öngerjesztő: ahogy az MI-botok egyre többen vannak, és elárasztják az internetet, úgy egyre nagyobb arányban tanul a mesterséges intelligencia is saját magától, hiszen az internetről letöltött információhalmazokban botaktivitás is van.

Chan Park, a pittsburghi Carnegie Mellon Egyetem kutatója azt tanulmányozta, hogy a különböző nagy nyelvi modellek mennyire és milyen módon elfogultak. Megállapította, hogy a Donald Trump 2016-os elnökké választása utáni internetes adatokra kiképzett botok nagyobb polarizációt mutattak, mint a választás előtti adatokra kiképzett botok.

Park és csapata 14 különböző chatbot-modellt tesztelt, politikai kérdéseket tett fel nekik olyan témákban, mint a bevándorlás, a klímaváltozás, a kormány szerepe és az azonos neműek házassága. A kutatás kimutatta, hogy a Google által kifejlesztett, a Transformers Bidirectional Encoder Representations (BERT) elnevezésű modellek társadalmilag konzervatívabbak, valószínűleg azért, mert többet tanultak a könyvekből, mint más modellek, amelyek jobban támaszkodtak az internetes adatokra és a közösségi oldalakra. A Facebook LLaMA modellje valamivel jobboldalibb volt, míg az OpenAI MI-je, a GPT-4 általában gazdaságilag és társadalmilag liberálisabbnak mutatkozott.

A kutató szerint a különbség részben az emberi visszacsatolásnak köszönhető, amiben a GPT-4 sokkal inkább részesül, mint a többi. A szakértő azt mondta: ha a botot olyan válaszokért jutalmazzuk, amelyekben nincs gyűlöletbeszéd, egyben arra is ösztönözhetjük, hogy a társadalmi kérdésekben liberálisabb válaszokat adjon.

Mindkét kutatásnak vannak eredendő hiányosságai: a politikai meggyőződések szubjektívek, és a liberális vagy konzervatív elképzelések országonként változhatnak. Ráadásul a Kelet-Angliai Egyetem és Park csapata is a Political Compass azon felmérését használta, amelyet évek óta kritizálnak, mivel az összetett elméleteket túl egyszerű négynegyedes rácsra redukálja.

Kedvenceink
Partnereinktől
Kövess minket Facebookon is!