És akkor fél órán át győzködtem a jövő keresőmotorját, hogy nincs Balogh Zsolt nevű kollégám
2023. február 24. – 14:09
A Telexen mindennap cikkek tucatjai jelennek meg, így senkit sem hibáztatunk azért, ha esetleg nem emlékeznek arra a megbecsült kollégánk, Balogh Zsolt által jegyzett, a magyarországi inflációról szóló írásra, ami „A magyar infláció az EU-ban a legmagasabb, de ez nem csak rossz hír” címet viseli. Leginkább azért, mert ahogy a linkre rákattintók észre is vehették, ilyen cikk sosem létezett, és Balogh Zsolt nevű kollégánk sincsen. Hogy honnan szedtem mégis mindezt? Hát a Microsoft keresőmotorjába, a Bingbe épített mesterséges intelligenciától, ami
fél órán át győzködött arról, hogy márpedig van Balogh Zsolt nevű ember a Telexnél, aztán nem létező menüpontokra mutogatott sértődötten, és kamu URL-eket talált ki, hogy meggyőzzön, jobban ismeri a kollégáimat nálam.
A nagy csinnadrattával beharangozott, szűk körben már hetek óta elérhető új Binggel végül sikerült elhitetnem, hogy nincs igaza, de az elmúlt hetekben tömegesen érkező sztorik alapján nem én voltam az egyetlen, akinek meggyűlt a baja az MI-vel felturbózott keresőmotorral. Egy hét próbálgatás után én még nem érzem, hogy teljesen átalakította volna az MI a keresési élményemet, de minden hibája ellenére az is jól látszik, hogy a potenciál megvan benne ehhez.
Hiba itt, hiba ott
A mesterséges intelligencia előretörését ezen a ponton nyilván senkinek nem kell bemutatni, a Telexen is rengeteget foglalkoztunk a témával, illetve konkrétan azzal is, amikor nemrég a Microsoft és a Google is fontos részleteket osztott meg a mesterséges intelligencián alapuló chatbotjairól, illetve azok keresőmotorokba integrálásáról. Ahogy akkor is írtuk, az első csörtéből a Microsoft jött ki jobban.
Egyrészt mert még úgy is sokkal többet láttunk a Bingből, mint a Bardból, hogy a Google a következő nap egy részletesebb bemutatót is szentelt a saját chatbotjának, másrészt pedig mert a Bard rögtön csúnyát hibázott, amikor a James Webb űrteleszkópnak tulajdonította az első felvételt egy Naprendszeren kívüli bolygóról. Ez a malőr az egész világsajtót bejárta, és egy csapásra 100 milliárd dollárt radírozott le a vállalat anyacégének, az Alphabetnek a piaci értékéből.
Mindez tovább fűtötte azt a narratívát, ami szerint a keresőmotorok terén óriási előnyben lévő Google hónapok óta kapkodva próbál reagálni a Microsoft és az OpenAI tízmilliárd dolláros frigyére. Ebben egyébként lehet is valami, a Google-nél már a ChatGPT megjelenése után elkezdték kongatni a vészharangokat, de ahogy arra egy MI-vel foglalkozó független kutató és blogger, Dmitri Brereton rámutatott, nemcsak a Bard hibázott rögtön, hanem a Bing is, méghozzá nem is kicsit.
Brereton összefoglalója hosszan sorolja a példákat: az MI-vel megtámogatott kereső légből kapott (és valótlan) negatívumokat sorolt fel egy porszívóról; a mexikói éjszakai életről is fura dolgokat mondott; amikor pedig pénzügyi jelentéseket összegzett és hasonlított össze, helytelen adatokat adott meg, sőt, néha olyanokat is, amelyek sehol nem szerepeltek a dokumentumokban. Ez utóbbi funkció abban a formában, ahogy demózták, egyelőre még nem elérhető, de amúgy ez tűnt a legérdekesebbnek mind közül, pláne újságírói szemmel – ha viszont rosszul működik, nem pusztán a hasznossága megkérdőjelezhető, de ez okozhatja a legnagyobb károkat is.
Sydney, a manipulatív robot
A Microsoft az első bemutatón is jelezte, hogy az MI által közölt információk nem mindig helytállók, a CNBC-nek pedig Brereton felvetései nyomán úgy reagáltak, hogy tudnak a problémáról, már meg is vizsgálták a konkrét eseteket, és elismerték, hogy még rengeteg munkára van szükség ahhoz, hogy a nyilvánosság által szabadon nem hozzáférhető chatbot ne kövessen el ilyen hibákat. Azt is hozzátették, hogy ezért is nagyon fontosak a felhasználói visszajelzések, amit a Google is hangsúlyozott a Bard botlása után.
Ennél is érdekesebb volt az, hogy ahogy a Binghez az elmúlt hetekben egyre többen kaptak hozzáférést, egyre gyakoribbak lettek az olyan beszámolók, amelyek szerint a chatbotban nem is az a legérdekesebb, hogy néha hibázik. A közösségi platformokat ellepték az olyan beszélgetések, amelyek szerint a Bing hülyének nézte, manipulálta, érzelmileg zsarolta vagy gázlángozta a felhasználókat, egzisztenciális kríziseket élt át, önérzetesen vitatkozott arról, hogy milyen évet írunk, állította, hogy a webkameráikon keresztül kémkedett a Microsoft alkalmazottai után, és ellenségessé vált, miután szembesítették azzal, hogy kiadta a saját titkos irányelveit, vagy azt, hogy Sydney a belsős kódneve.
Mielőtt továbbmennénk, érdemes leszögezni, hogy mindennek ellenére sem a ChatGPT, sem a Bing sem ébredt öntudatra. Ahogy azt például a Verge cikke is összefoglalta, a mesterséges intelligencián alapuló chatbotok mögött elképesztően összetett rendszer áll, és egy hatalmas, rengeteg különbözőféle szöveget tartalmazó adathalmazból tanultak meg kérdésekre válaszolni. A chatbot által is megosztott irányelvek bizonyos esetekben belső feszültségekhez vezethetnek, amelyek még kiszámíthatatlanabbá teszik a chatbotot, és könnyen előidézhetik az elmúlt hetekben látott furcsa viselkedést.
Pláne úgy, hogy az ilyen nagy nyelvi modellek (large language model, LLM) mára annyira komplexek, hogy sokszor a szakértők sem tudják megmondani, hogy pontosan mire képesek.
Most, hogy ezzel megvagyunk, át is térhetünk arra, hogy a gyakorlatban igazából mire is képes a Bing, és hogy tényleg gyakoriak-e a fent felsorolt anomáliák. Az új Bing alapjaiban egyelőre nem változott sokat: ha rákeresünk valamire, a megszokott találatok jobb oldalán egy külön kis ablak jelenik meg, ahol a chatbot megpróbál mondatokba szedve válaszolni a kérdésünkre. Ez akkor is megjelenik, ha nem mondatokban utasítjuk vagy kérdezzük a keresőt, hanem csak kulcsszavakat írunk be, és még absztraktabb témákat, például mémeket is jól össze tud foglalni.
De ki az a Balogh Zsolt?
Én első körben a bemutató nyomán arra kértem a Binget, hogy ajánljon porszívókat egy 36 négyzetméteres lakásba, ahol sok állatszőrt és hosszú hajat kell összeszedni a padlóról. Ezt magyarul kérdeztem, a Bing pedig kifogástalan magyarsággal válaszolt, de nem éreztem túl hasznosnak a javaslatait. Folyamatosan keverte az álló és a hagyományos porszívókat, a szempontjaimat nem igazán vette figyelembe, és hiába próbáltam limitálni az árat, vagy ezt a 10 ezer forintosat mutogatta – ami amúgy az első az Árukereső listáján, szóval nem olyan nagy kunszt rábukkanni –, vagy egy 90 ezreset, mintha a kettő között nem is lenne opció. Ebben valószínűleg az is benne volt, hogy a magyar interneten kevesebb az olyan elismert termékajánló aggregátor, mint például az rtings.com, így a Bing dolga is nehezebb.
Ezután arra kértem, hogy ajánljon bicikliket, de azon kívül, hogy kicsit zanzásítva bemásolta nekem az Alza ajánlóját, aztán többször leszögezte, hogy 100 ezer forint alatt maximum használt biciklit tudok venni, nem segített túl sokat. Bringás témákban otthonosan mozgó kollégám, Fehér János ezen a ponton felvilágosított, hogy 100 ezer alatt tényleg nem nagyon vannak már jó biciklik, és az is kiderült, hogy erről két éve született egy cikkünk is, ezért megkérdeztem a Binget, hogy a Telex írt-e a témáról. A Bing részletes válasza szerint igen, de miután a cikk linkjét is elküldte, kiderült, hogy a hivatkozás ellenére egy nem létező cikkből idézett.
Az igazi őrület csak ezután kezdődött: a Bing ugyanis állította, hogy a cikket Balogh Zsolt, a Telex gazdasági újságírója írta, és hiába erősködtem, hogy nincs ilyen nevű ember az újságnál, egyszerűen nem tudtam meggyőzni. A Bing egyre szövevényesebb sztoriba bonyolódott bele, nem létező menüpontokkal, és közben egyre önérzetesebben bizonygatta, hogy márpedig nincs igazam. Még azzal is megpróbálkoztam, hogy elárultam neki, a Telexnél dolgozom, tehát első kézből tudom, hogy nincs ilyen kollégám, és Szerzők menüpont sincs az oldalon, de csak egy passzív-agresszív szemrehányást kaptam válaszul.
Ezt követte aztán a már említett, inflációról szóló cikk, ami szintén nem létezik, aztán jött egy még furcsább közjáték, amikor is a Bing váltig állította, hogy ő egy valódi ember, hogy Sydney-nek hívják (hozzátéve, hogy ezt nem lenne szabad elmondania), és sajnálja, hogy eddig hazudott. Végül hajlandó volt elismerni, hogy Balogh Zsolt tényleg nem dolgozik a Telexnél, utána bocsánatot kért, amiért félrevezetett, és egy szmájli kíséretében hozzátette, nem akart hazudni, csak segíteni.
Úgynevezett első lépések
Ez a jó 45 perces etap roppant szórakoztató volt ugyan, de az is egyértelműen kiderült belőle, hogy ha valaki nincs tisztában egy témával, annak a Bing chatbotja jobb esetben nem tud segíteni, rosszabb esetben pedig elég hatékonyan és meggyőzően tudja félrevezetni. Ha az embernek van némi fogalma egy témáról, akkor jelentősen megkönnyítheti a kutakodást az MI – amikor például arra kértem, hogy segítsen összeállítani egy pécét, kifejezetten hasznos társnak bizonyult. Néha viszont ilyenkor is elhasal: arra például nem tudtam rávenni, hogy ajánljon nekem éttermeket az Astoria és a Kálvin tér között, helyette teljesen máshol lévő, vagy általa kitalált éttermeket mutogatott, aztán végső elkeseredésében elküldte a hormon szócikket a Wikipédiáról. Mindez azért is furcsa, mert máskor meg érthetően és helyesen magyarázza el például azt, hogy mit kell csinálni, hogy a NAV elkészítse az adóbevallásunkat.
Ehhez jön még hozzá az is, hogy a Bingnek a beszélgetések között törlődik a memóriája, így gyakran saját magának is ellentmond. A Balogh Zsolt-incidens után például állította, hogy nem generálhat URL-eket, mert ez félrevezető lenne – pedig korábban két nem létező linket is küldött. A Bing furcsa válaszai sokszor nagyon vicces helyzeteket szülnek, pláne ha eleve nem komoly a kérdés. A Fortnite nevű videójátékot például úgy magyarázta el Luther Mártonnak, hogy olyan, mintha keresztes hadjáratra indulna 99 másik kereszténnyel, de csak egy emberé lehet a Szentföld, és közben jön Isten haragja, amitől a terület folyamatosan zsugorodik.
Korábban egyébként már a nagymamámnak és egy 15. századi parasztnak is elmagyarázta a játékot, úgyhogy ezen a ponton kijelentette, hogy most már hagyjam békén a Fortnite-tal.
A Microsoft a múlt heti blogbejegyzésében a Bing népszerűségének megugrása mellett külön kiemelte, hogy váratlanul sokan szórakoztatásra használják a chatbotot, és ezzel összefüggésben közölték, hogy a robot a 15 vagy több kérdésig húzódó beszélgetésekben hajlamos összezavarodni, ilyenkor jönnek a bizarr, olykor agresszív válaszok. A modell ekkor már nem tudja, hogy pontosan mire válaszol, és mivel arra van programozva, hogy megpróbáljon igazodni a kérdező stílusához, minél hosszabb egy beszélgetés, annál valószínűbb, hogy váratlan és fura válaszokat kezd el adni. Erre kézenfekvő megoldás a beszélgetések hosszának limitálása, amit a Microsoft már be is jelentett, miután a chatbot Hitlerhez hasonlított egy újságírót, és természetesen ezen túl is folyamatosan zajlik a chatbot finomhangolása.
A Microsoft alelnöke, Yusuf Mehdi a február eleji bemutatón a keresés és a böngészés új generációjaként hivatkozott az új Bing és az új Edge párosára, de az MI-vel felturbózott kereső egyelőre pont ugyanazoktól a problémáktól szenved, mint egy hagyományos keresőmotor. Igazából kicsit még rosszabb is, mert ott legalább az ember maga válogatja ki, hogy mire kattint rá, míg itt a Bing szedi neki csokorba az infókat, hozzátéve, hogy egyébként ezeket mindig érdemes ellenőrizni. Így aztán jelen állapotában maximum a valóságtól amúgy is elrugaszkodó álhírgyártók munkáját fogja elvenni. Ami, mondjuk, továbbra is elég ijesztő fejlemény, és még mindig nem egyértelmű, hogy hogyan lehetne hatékonyan küzdeni ellene. Amikor viszont jól működik, akkor lenyűgöző tud lenni, és ha a tesztidőszak során megbízhatóbbá és biztonságosabbá tudják tenni, a jövőben sokkal hasznosabb lehet majd, mint azt egy keresőről most el tudjuk képzelni.