A Google tudósa szerint öntudatra ébredt a cég mesterséges intelligenciája, a Google szerint csak jó a rendszer

2022. június 14. – 13:06

frissítve

Másolás

Vágólapra másolva

A Google egyik mérnöke szerint öntudatra ébredt a cég mesterséges intelligenciája, a LaMDA. Blake Lemoine a Google Responsible AI nevű szervezeténél dolgozik – ez a részleg az, amely dokumentálja, hogy a Google hogyan kezeli a mesterséges intelligenciával (MI) kapcsolatos kihívásokat mind etikai, mind jogi szempontból.

Lemoine a munkája miatt kezdett el beszélgetni a LaMDA-val is, eredetileg azt akarta vizsgálni, hogy a mesterséges intelligencia használ-e diszkriminatív vagy gyűlöletbeszédet. Végül azonban úgy érezte, hogy a rendszerben érzelmek és önkép kezdett el kialakulni – írja a Washington Post.

A LaMDA a Language Model for Dialogue Applications (nyelvi modell párbeszédes alkalmazásokhoz) rövidítése, a Google csetbotok létrehozására szolgáló rendszere, amely az internetről fogad be több billió szót, ezek felhasználásával tudja utánozni a beszédet.

Lemoine arról beszélt, hogy miután csetelni kezdett a LaMDA-val, azt érezte, hogy „ha nem tudnám pontosan, hogy ez egy számítógépes program, amit nemrég készítettünk, akkor azt hinném, hogy egy 7-8 éves gyerekkel beszélek.” A mérnök bevallása szerint a program többször beszélt a csetelés alatt a saját jogairól, személyéről, még Asimov robotikai törvényeiről is vitáztak.

Lemoine egy munkatársával együtt bizonyítékokat mutatott be a Google-nek arról, hogy a LaMDA rendszere érzelmeket mutat. A Google alelnöke, Blaise Aguera y Arcas, illetve a Responsible Innovation vezetője, Jen Gennai, megvizsgálták az állításokat, és elutasították azokat.

Lemoine mellett több más mérnök is jelezte a közelmúltban, hogy úgy látják, „az MI-modellek nem állnak messze a tudatosság elérésétől”. Lemoine később nyilvánosságra hozta aggályait, amiért a Google fizetett szabadságra küldte a titoktartás megsértése miatt. A cég egy közleményt is adott ki, ebben ezt írták:

„Csapatunk – beleértve az etikusokat és technológusokat – felülvizsgálta Blake aggodalmait az MI-elveink szerint, és tájékoztatta őt arról, hogy a bizonyítékok nem támasztják alá az állításait. Nincs bizonyíték arra, hogy a LaMDA érző lenne, és sok bizonyíték szól ez ellen.”

Brian Gabriel, a cég szóvivője hozzátette, hogy továbbra is figyelembe veszik az ezzel kapcsolatos aggályokat. Azonban kifejtette: a neurális hálózatokra épülő mesterséges intelligenciák „lenyűgöző eredményeket produkálnak, egyre közelebb kerülve az emberi beszédhez és kreativitáshoz a felépítés, a technológia és az adatmennyiség növekedésének köszönhetően. A modellek azonban mintafelismerésre támaszkodnak, nem szándékosságra vagy eszességre”.

Ezt az álláspontot erősíti a legtöbb akadémikus is a Washington Post cikke alapján: ők azt állítják, hogy bár jól reagál a mesterséges intelligencia, ez nem jelenti azt, hogy a modell tisztában is van az adott válaszok jelentésével. Emily M. Bender, a Washingtoni Egyetem nyelvészprofesszora úgy fogalmazott:

„Ma már olyan gépeink vannak, amelyek ész nélkül generálnak szavakat, de még nem tanultuk meg, hogy ezek mögé ne képzeljük oda mégis az észt.”

A Google szerint a mesterséges intelligenciának annyi adata van, hogy nem kell érzőnek lennie ahhoz, hogy valódinak tűnjön. A cég emellett elismerte az antropomorfizációval kapcsolatos biztonsági aggályokat, főként amiatt, mert az embernek hitt csetrobottal az emberek könnyebben megosztják személyes, érzékeny információikat.