Így nézett ki belülről az OpenAI felrobbanása

Legfontosabb

2023. november 30. – 00:05

Így nézett ki belülről az OpenAI felrobbanása
Sam Altman, az OpenAI vezérigazgatója – Fotó: Justin Sullivan / Getty Images
Karen Hao
The Atlantic
Charlie Warzel
The Atlantic

Másolás

Vágólapra másolva

Sam Altman vitathatatlanul a generatív mesterséges intelligencia (MI) forradalmának megtestesítője. Ezért váltott ki megdöbbenést, hogy az OpenAI vezérigazgatóját egy hétvége leforgása alatt hirtelen eltávolították, majd arról szóltak a hírek, hogy a vállalat a visszahívásáról tárgyal vele, végül érkezett az újabb sokkoló bejelentés, hogy ehelyett a Microsoftnál alapít egy új mesterségesintelligencia-fejlesztő csoportot. [A cikk megjelenése után jött az újabb fordulat: az OpenAI jelezte, hogy mégis sikerült megállapodniuk Altmannal, aki visszatérhet a vezérigazgatói posztra – a ford.]

De Sam Altman drámája valójában nem most, hanem egy évvel ezelőtt, a ChatGPT megjelenésével kezdődött.

Az elmúlt időszak eseményeinek alaposabb megértéséhez tudni kell, hogy az OpenAI nem egy techcég. Legalábbis nem olyan értelemben, mint az internet korának más korszakalkotó vállalatai, például a Meta vagy a Google. Szándékosan úgy építették fel, hogy ellenálljon a technológiai ipar nagy részét vezérlő elveknek: annak, hogy állandó növekedésre kell törekedni, illetve annak a hozzáállásnak, hogy először létrehoznak egy piaci terméket, és csak utána teszik fel róla a tisztázandó kérdéseket.

A céget nonprofit szervezetként alapították 2015-ben, azzal a dedikált céllal, hogy megalkossa az általános mesterséges intelligenciát (angolul artificial general intelligence, azaz AGI), amely „az emberiség egészének” javát hivatott szolgálni. A vállalat szerint az AGI elég fejlett lenne ahhoz, hogy a legtöbb, gazdasági szempontból értékes munkában bármelyik embert felülmúlja – vagyis éppen olyan pusztítóan erős technológia, amely felelősségteljes kezelést kíván meg. E felfogás szerint az OpenAI sokkal inkább egy kutatóintézethez vagy egy agytröszthöz hasonlóan működne. A cég alapszabálya világosan ki is mondja, hogy az OpenAI elsősorban nem a befektetőknek, és még csak nem is az alkalmazottaknak, hanem az emberiségnek tartozik felelősséggel.

Ez a modell nem bizonyult tartósnak. 2019-ben az OpenAI létrehozott egy, a „limitált megtérülés” elve szerint működő leányvállalatot, amely tőkebevonásra és a legjobb tehetségek bevonzására is alkalmas volt, és immár kereskedelmi termékeket is fejleszthetett. Az irányítás azonban továbbra is a nonprofit igazgatótanácsnál maradt. Mindez apróságnak tűnhet, mégis központi jelentősége van az OpenAI üstökösszerű felemelkedésében és Altman kálváriájában.

Altman elbocsátása lényegében a vállalat két ideológiailag szembenálló csoportja közötti hatalmi harc tetőpontja volt. Az egyik csoport a szilícium-völgyi technooptimizmusból nőtt ki, és az élteti, hogy minél gyorsabban kereskedelmi forgalomba lehessen hozni valamit; a másik csoport pedig attól tart, hogy a mesterséges intelligencia egzisztenciális veszélyt jelent az emberiségre, ezért rendkívül óvatosan kell bánni vele. Ez a két oldal néhány zökkenőtől eltekintve éveken át képes volt megélni egymás mellett a cégben.

Jelenlegi és korábbi alkalmazottak elmondása szerint az ingatag egyensúly szinte napra pontosan egy évvel ezelőtt bomlott meg, amikor megjelent az OpenAI-t világhírűvé tevő csetalkalmazás, a ChatGPT. Kívülről úgy tűnt, hogy ez volt minden idők egyik legsikeresebb termékbevezetése. A ChatGPT felhasználóinak száma gyorsabban nőtt, mint bármelyik korábbi alkalmazásé, és úgy tűnt, egymaga képes újradefiniálni, ahogy emberek milliói gondolkoznak az automatizációban rejlő veszélyekről és lehetőségekről.

Az OpenAI-on belüli két csoportot azonban a ChatGPT két homlokegyenest ellentétes irányba sodorta, ami tovább mélyítette a korábban is fennálló ideológiai szakadékot. A csetalkalmazás felpörgette a nyereséget hozó termékek fejlesztéséért folytatott versenyfutást, ezzel egyidejűleg pedig példátlan nyomást helyezett a vállalat infrastruktúrájára és a technológia kockázatainak felmérésével és mérséklésével foglalkozó dolgozókra. Mindez tovább terhelte az amúgy is feszült viszonyt az OpenAI-on belüli frakciók között – amelyeket Altman egy 2019-es belső emailben törzseknek nevezett.

Az Atlantic az OpenAI tíz jelenlegi és egykori alkalmazottjával folytatott beszélgetéseket. Ezek során egy olyan átalakulás képe rajzolódott ki, amely fenntarthatatlan megosztottságot eredményezett a vezetőségen belül. (Az alkalmazottak nem kívánták felfedni kilétüket, mivel tartanak a negatív következményektől.) Beszámolóikból egybehangzóan kiderül, hogy a kereskedelmi értékesíthetőség biztosítása miatt napról napra egyre nagyobb nyomás nehezedett a profitorientált részlegre, ami szembement a vállalat deklarált küldetésével. Mindez a ChatGPT és az azt gyorsan követő egyéb termékek bevezetésével csúcsosodott ki.

„A ChatGPT után világosan látszott a nyereséghez vezető út. Többé nem lehetett arra hivatkozni, hogy idealista kutatólaboratórium vagyunk. Ott voltak az ügyfelek, akik arra vártak, hogy most azonnal kiszolgálják őket”

– mondta a lap egyik forrása.

Még mindig nem tudni biztosan, hogy miért rúgták ki Altmant, aki az Atlantic megkereséseire sem válaszolt. Az igazgatótanács november 17-én bejelentette, hogy „egy átgondolt felülvizsgálati folyamat” során kiderült, hogy Altman „nem volt mindig őszinte az igazgatósággal folytatott kommunikációjában”, ezért a testület a továbbiakban nem tartja megfelelőnek őt az OpenAI vezérigazgatói tisztségének ellátására. Egy kiszivárgott belső üzenetben, amelynek a tartalmát a cég szóvivője is megerősítette, az állt, hogy az Altman és az igazgatótanács közötti „kommunikációs zavar” következménye volt a kirúgás, és „nincs szó a pénzügyi, üzleti, biztonsági vagy adatvédelmi gyakorlatunkkal kapcsolatos bármilyen hivatali visszaélésről”. Konkrét részleteket azonban nem közöltek. Annyi tudható biztosan, hogy az OpenAI elmúlt egy éve meglehetősen kaotikus volt, és nagyrészt a vállalat további irányvonalát érintő éles szakadék határozta meg.

2022 őszén, a ChatGPT elindítása előtt az OpenAI-nál mindenki gőzerővel azon dolgozott, hogy felkészüljenek az addigi legfejlettebb nagy nyelvi modell, a GPT-4 közzétételére. A munkacsoportok a gördülékeny szöveg, programkód és képleírások létrehozására képes technológia finomhangolásán fáradoztak; a termék támogatásához szükséges infrastruktúra előkészítésén dolgoztak; illetve igyekeztek finomítani azokat az irányelveket, amelyek meghatározzák, hogy az OpenAI milyen felhasználói viselkedést toleráljon, és milyet ne.

Mindeközben a cégen belül olyan híresztelések kezdtek terjedni, hogy az egyik versenytársuk, az Anthropic is saját csetbotot fejleszt. Ez a rivalizálás személyes jellegű is volt: az Anthropicot az OpenAI-tól 2020-ban távozó alkalmazottak hozták létre, akik állítólag azért hagyták ott a céget, mert aggasztotta őket, hogy túl gyors ütemben dobják piacra a termékeket. Az OpenAI három akkori alkalmazottja szerint a cégvezetés tavaly novemberben közölte az alkalmazottakkal, hogy heteken belül piacra kell kerülnie egy új csetbotnak. Ennek érdekében kiadták az utasítást, hogy inkább egy már meglévő modellt, a GPT-3.5-öt tegyék közzé egy csetalapú felülettel.

A vezetés nagyon ügyelt arra, hogy ezt ne egy új termék bevezetéseként, hanem egy „visszafogott kutatási előzetesként” aposztrofálja. Altman és más vezetők is azt hangsúlyozták, hogy azzal, hogy a GPT-3.5-öt az ügyfelek kezébe adják, a cég további adatokat gyűjthet arról, hogy az emberek hogy használják a mesterséges intelligenciát, és hogyan kommunikálnak vele, ami segítheti a céget a GPT-4 fejlesztésében. Ez a megközelítés összhangban volt a vállalat általános stratégiájával is, amelynek lényege, hogy a technológiákat fokozatosan vezessék be, hogy az emberek megszokhassák azokat. Néhány vezető, köztük Altman is, ugyanazt a mondatot kezdte el ismételgetni: az OpenAI-nak mozgásba kell hoznia az „adatlendkereket”.

Voltak akik nem értettek egyet a közzététel siettetésével. A vállalatot már így is túlságosan megterhelte a GPT-4-re való felkészülés, és nem álltak készen egy olyan csetbot kezelésére, amely teljesen új kockázatokat teremthet. Alig néhány hónappal korábban indítottak útjára egy új forgalomfigyelő eszközt, hogy nyomon kövessék a felhasználók online viselkedését. Még mindig ennek az eszköznek a tökéletesítésén dolgoztak, hogy megértsék, hogyan használják az emberek a vállalat termékeit, ami megalapozta volna, hogyan kezdjenek neki a technológia lehetséges veszélyeinek és a visszaéléseknek a mérsékléséhez. Más alkalmazottak viszont úgy vélték, hogy a GPT-3.5 csetbottá alakítása minimális kihívásokkal jár, mivel magát a modellt már kellőképpen tesztelték és finomították.

A cég tovább nyomult előre, és tavaly november 30-án elindította a ChatGPT-t. Ez olyannyira visszafogottan zajlott le, hogy sok munkatárs, aki nem volt közvetlenül érintett – beleértve a biztonsági funkciók felelőseit is –, észre sem vette, hogy megtörtént. Egyikük azt mondta, néhányan azok közül, akik tudtak róla, fogadásokat kötöttek, hogy az első héten hányan fogják használni az eszközt. A legmagasabb tipp százezer felhasználó volt. Aztán az OpenAI elnöke a Twitteren bejelentette, hogy a felhasználók száma egy nap alatt elérte az egymilliót. A cégen belül azonnal mém lett a „visszafogott kutatási előzetes” kifejezés; az alkalmazottak még laptopmatricákat is csináltak belőle.

A ChatGPT kirobbanó sikere rendkívüli terhet rótt a cégre. A kutatással foglalkozó csoportok kapacitásait is átirányították, hogy kezelni tudják a hatalmas adatforgalmat. A forgalom folyamatos növekedésével az OpenAI szerverei többször összeomlottak, és a forgalomfigyelő eszköz is újra meg újra meghibásodott. A korlátozott funkcionalitás miatt azonban az alkalmazottak még akkor is csak nehezen tudtak részletes képet kapni a felhasználói viselkedésről, amikor az eszköz online volt.

A biztonságért felelős csapatok próbálták elérni, hogy lassítsanak. Ők a ChatGPT finomításán dolgoztak, hogy bizonyos típusú, visszaélésszerű kéréseket visszautasítson, más kérdésekre pedig megfelelőbb válaszokat adjon. De nehézséget jelentett olyan funkciók létrehozása is, mint a ChatGPT-vel sorozatosan visszaélő felhasználók letiltása. A termékfejlesztő részleg ugyanakkor szerette volna kihasználni a meglévő lendületet, és rá akart feküdni a kereskedelmi hasznosításra. Több száz új alkalmazottat vettek fel, hogy intenzívebb tempóban bővítsék a vállalat kínálatát. Az OpenAI februárban megjelentette a ChatGPT fizetős változatát. Ezt már márciusban követte egy API, azaz alkalmazásprogramozási felület, amely vállalkozásoknak segít integrálni a termékeikbe a ChatGPT-t. Végül két héttel később elindították a GPT-4-et.

A vállalat három, akkoriban ott dolgozó alkalmazottja szerint az új termékek sokasága tovább rontott a helyzeten. A forgalomfigyelő eszköz funkcionalitásával továbbra is komoly problémák voltak, így csak korlátozott rálátást biztosított arra, hogy a épp melyik termékekből érkezett a forgalom azok közül, amelyekbe integrálták a ChatGPT-t és a GPT-4-et. Mindez még inkább nehezítette a visszaélések megértését és megállítását. Közben megugrott a csalások száma: a felhasználók tömegével hoztak létre új fiókokat, kihasználva a lehetőséget, hogy minden új fiókhoz 20 dolláros jóváírást kaptak a fizetős szolgáltatásra.

Az ezzel járó bevételkiesés megszüntetése érdekében prioritássá vált a csalások megfékezése, és annak megakadályozása, hogy a felhasználók új fiókok létrehozásával kijátszhassák a visszaélések kiszűrését. A biztonságért felelős, egyébként is kis létszámú csoport egyes munkatársait átcsoportosították más visszaélésekkel foglalkozó területekről, hogy erre az egy problémára összpontosíthassanak. Az egyre növekvő terhelés hatására egyesek már pszichés problémákkal küzdöttek. A tájékoztatás szegényes volt, előfordult, hogy a munkatársak csak akkor tudták meg, hogy valakit kirúgtak, amikor észrevették, hogy eltűnt a Slackről.

A GPT-4 közzététele az összehangolási csapatot is bosszantotta. Ők a mesterséges intelligencia magasabb szintű biztonsági kihívásaival foglalkoztak, például arra fejlesztettek ki módszereket, hogy a modell kövesse a felhasználói utasításokat, illetve elkerülje az offenzív nyelvhasználatot vagy a „hallucinációt”, azaz a téves információk tényként való bemutatását. A csapat számos tagját, többek között a fejlett MI-modellek egzisztenciális kockázatától tartó, egyre népesebb kör tagjait aggasztotta a GPT-4 gyors bevezetése és más termékekbe való széles körű integrálása. Úgy vélték, hogy a mesterséges intelligencia biztonságáért addig elvégzett munkájuk nem volt elegendő.

A feszültségek a legmagasabb szinten is fellángoltak. Miközben Altman és Greg Brockman, az OpenAI elnöke egyre inkább a kereskedelmi hasznosítást szorgalmazta, a vállalat vezető tudósa, Ilya Sutskever egyre inkább aggódott amiatt, hogy az OpenAI megfelel-e az irányító nonprofit szervezet küldetésének, hogy hasznos általános mesterséges intelligenciát hozzon létre. Az elmúlt évek során az OpenAI nagy nyelvi modelljeinek gyors fejlődése hatására Sutskever egyre jobban bízott abban, hogy rövidesen megvalósul az AGI, azaz az általános mesterséges intelligencia, és ezért egyre határozottabban az esetleges veszélyek megelőzésére összpontosított – állítja Geoffrey Hinton, az MI egyik úttörője. Ő Sutskever doktori témavezetője volt a Torontói Egyetemen, és azóta is szoros kapcsolatban maradt vele. (Sutskever nem válaszolt az Atlantic megkeresésére.)

Ennek a minden korábbinál fejlettebb technológiának az eljövetelére számítva Sutskever szinte spirituális vezetőként kezdett viselkedni – mesélte három, korábban vele együtt dolgozó alkalmazott. Állandó lelkes mondásává vált, hogy „érezd az AGI-t”, amivel arra utalt, hogy a cég a végső célja elérésének küszöbén áll. Az OpenAI 2022-es karácsonyi buliján, amelyet a Kaliforniai Tudományos Akadémia épületében tartottak, Sutskever kántálásra biztatta a dolgozókat: „Érezd az AGI-t! Érezd az AGI-t!” A mondat olyan népszerű lett, hogy az OpenAI alkalmazottai még egy „Feel the AGI” emojit is létrehoztak a Slacken.

Minél magabiztosabb lett Sutskever az OpenAI technológiájának erejét illetően, annál inkább azzal a frakcióval szövetkezett a vállalaton belül, amely egzisztenciális kockázatot látott benne. Két, a történteket jól ismerő ember szerint egy idei kihelyezett vezetőségi eseményre Sutskever egy helyi művésszel elkészíttetett egy faszobrot, amely az „összehangolatlan” mesterséges intelligenciát volt hivatott reprezentálni – vagyis az olyan MI-t, amely nem követi az emberi célokat. A szobrot az eseményen felgyújtotta, hogy ezzel demonstrálja az OpenAI elkötelezettségét az alapelvei iránt.

Júliusban az OpenAI egy úgynevezett szuper-összehangoláson dolgozó munkacsoport létrehozását jelentette be, a kutatás társvezetőjeként pedig Sutskevert nevezték meg. A cég közölte: kibővítik az összehangolási csapat kutatási tevékenységét, hogy a cég meglévő csipjeinek 20 százalékát célzottan arra használhassák, hogy előremutató MI-biztonsági eljárásokat fejlesszenek ki. Ezzel arra az eshetőségre készülnek, hogy az AGI még ebben az évtizedben elkészül – írták.

Eközben a vállalat többi része folyamatosan új termékekkel állt elő. Nem sokkal a szuper-összehangolási munkacsoport megalakulása után az OpenAI piacra dobta a DALL-E 3 nevű nagy teljesítményű képgeneráló programot. Aztán november elején megtartották az első fejlesztői konferenciát, ahol Altman bemutatta a GPT-ket, a ChatGPT programozás nélkül létrehozható egyedi változatait. Ezekkel ismét komoly problémák merültek fel: a cég hírei szerint az OpenAI egy sor üzemzavart tapasztalt, köztük egy súlyosat a ChatGPT-ben és annak API-jában. A CNBC szerint három nappal a fejlesztői konferencia után a Microsoft biztonsági aggályok miatt rövid időre korlátozta alkalmazottai hozzáférését a ChatGPT-hez.

Altman mindezek ellenére folytatta a munkát. A kirúgása előtti napokban az OpenAI folyamatos előrelépéseivel kürtölte tele a médiát. A Financial Timesnak azt mondta, hogy már dolgoznak a GPT-5-ön, majd néhány nappal később az APEC-csúcstalálkozón arra utalt, hogy valami elképesztő dologra készülnek.

„Az utóbbi hetekben is ott lehettem a teremben, amikor félrehúztuk a tudattalanság fátylát, és kiterjesztettük a felfedezés határait. Egy életre szóló szakmai megtiszteltetés, hogy ebben részt vehetek”

– mondta.

Egyes beszámolók szerint Altman a japán Softbank és közel-keleti befektetők milliárdjait is be akarta vonni, hogy egy olyan csipgyártó céget hozzon létre, amely felveszi a versenyt az Nvidiával és más félvezetőgyártókkal, miközben csökkenti az OpenAI költségeit. Altman segített abban, hogy az OpenAI egy év alatt hibrid kutatócégből gyorsan növekedő szilícium-völgyi techvállalattá alakuljon.

Mindezek fényében érthető, hogyan fajult robbanásig a helyzet. Az OpenAI alapító okirata a nyereségnél, a részvényeseknél és bármely magánszemélynél fontosabbnak tartja az alapelveiket. A vállalatot részben az a kör alapította, amelyet most Sutskever képvisel. Ők azok, akik tartanak a mesterséges intelligencia potenciáljától, és akiknek a meggyőződései időnként a sci-fi világában gyökereznek – és Altmant kirúgása idején közülük került ki az igazgatóság egy része is.

Ugyanakkor maga Altman is a vállalat végső céljának eléréséhez vezető eszközként pozicionálta az OpenAI kereskedelmi forgalomba bocsátott termékeit és forrásbevonási törekvéseit. A munkatársaknak azt mondta, hogy a vállalat modelljei még mindig a fejlesztés olyan korai szakaszában vannak, hogy az OpenAI-nak ki kell lépnie a piacra ahhoz, hogy elegendő bevételt termeljen, és később korlátok nélkül költhessen az összehangolási és biztonsági aggályok kezelésére. A ChatGPT-től a hírek szerint több mint évi 1 milliárd dolláros bevételt várható.

Altman kirúgását egy elképesztő kísérletnek is tekinthetjük az OpenAI szokatlan struktúrájának tesztelésére. Lehetséges, hogy ez a kísérlet éppen most bomlasztja szét a cég általunk eddig ismert formáját, és ezzel együtt a mesterséges intelligencia fejlesztését is felrázza. Ha Altman a befektetők nyomására és a jelenlegi alkalmazottak felháborodása miatt visszatér a vállalathoz, az a hatalma konszolidációját jelentené. Egy ilyen lépés azt sugallná, hogy az alapító okirata és magasztos hitvallása ellenére az OpenAI végül is csak egy klasszikus techcég. [Végül az Atlantic cikkének eredeti megjelenése után bejelentették Altman visszatérését – a ford.]

Ez a viharos időszak megmutatta, hogy milyen kevesek szava dönt korunk talán legkomolyabb következményekkel járó technológiájának fejlődési irányáról. A mesterséges intelligencia jövőjét a gazdag technooptimisták, az elvakult doomerek és a multimilliárd dolláros vállalatok közötti ideológiai harc határozza meg. Bár az OpenAI sorsa a tét, megmutatkoztak a vállalat nevét kölcsönző nyitottság határai. A jövő pedig a jelek szerint zárt ajtók mögött fog eldőlni.

Horváth Kávai Andrea fordítása. Az eredeti angol nyelvű cikk a The Atlantic Media Co. tulajdona, és annak magyar fordítását az engedélyükkel közöltük.

Kedvenceink
Partnereinktől
Kövess minket Facebookon is!