Ez már nem sci-fi: mesterséges intelligencia célozza az izraeli hadsereg csapásait
2023. december 15. – 21:59
Májusban, az orosz-ukrán háború kapcsán már írtunk arról, hogy a kisebb, és papíron gyengébb Ukrajna többek között azért tudta megállítani az orosz inváziót, mert modern hadseregként működnek, kihasználják a 21. századi technológiát, miközben az oroszok még sok esetben második világháborús módszereket használtak.
Izraelben most egészen más a helyzet: a támadó erők használják a legmodernebb fegyvereket, miközben az ellenséges terrorszervezet inkább a helyismeretére és a túszokra hagyatkozik. Bizonyos szempontból az izraeli erőknek is előnyös a Hamász helyzete: egészen biztos, hogy a terroristák jelentős része a Gázai övezetben tartózkodik. Épp ezért napi 200-250 tengeri és légicsapással lövi a térséget, aminek a Hamász október 7-ei, véres támadása óta már több mint 18 ezer áldozata volt.
Az NPR szakértők segítségével mutatta be, hogy az izraeli hadsereg hogyan használja a mesterséges intelligenciát arra, hogy gyorsabban találjon ellenséges célpontokat, amiket aztán megsemmisíthet. A legújabb ilyen rendszerük a Gospel (magyarul evangélium), ami elvileg rengeteg különböző adatot fésül össze, és azok alapján ajánl célpontokat a hadseregnek, a légierőnek és a haditengerészetnek.
Még nem bizonyított
Egyelőre nem arról van szó, hogy minden rakétába MI-t raknak, hogy az magának döntse el, hova vagy kibe akar becsapódni. A Gospel csak adatokat túr át – az emberi tempó sokszorosával –, és az azokból összerakott ajánlását átadja egy hús-vér emberi szakértőnek, aki eldönti, hogy valóban le kell-e bombázni a célpontot, vagy sem.
A rendszer viszonylag új, az Izraeli Védelmi Erők (IDF) először 2020-ban említette, amikor megnyert vele egy innovációs díjat. Egy 2021-es cikkben azt írják, hogy a Gospelt a hírszerzés, a 8200-s egység fejlesztette, és már akkor bevetették egy, a gázai metrót célzó küldetés során. Az IDF szerint rakétakilövő-állomásokat, jeladókat ismert fel, és az alapján ajánlott célpontokat.
Nem a Gospel az egyetlen MI-s rendszer, amit az izraeli haderők használnak. Rengeteg különböző forrásból szereznek be adatokat (például sms-ek, műholdképek, drónfelvételek, szeizmikus érzékelők), amiket más, alacsonyabb rendű MI-k néznek át. A letisztított adattömböket küldik tovább a Gospelnek, ami ezekből rakja össze a potenciális célpontok listáját.
Tal Mimran, a jeruzsálemi Héber Egyetem oktatója, aki a kormánynak is dolgozott, az MI-célzással kapcsolatban azt mondta az NPR-nak, hogy a Gospel képes felismerni akár egy-egy harcost, vagy rakétavetőket is, de elvileg a Hamász parancsnoki központjait is ki tudja szúrni.
„Lényegében a Gospel ugyanazt csinálja, mint korábban egy csoportnyi emberi elemző”
– mondta Mimran.
Az elmondása szerint 20 elemző 300 nap alatt 50-100 célpontot talált, míg a Gospel és alrendszerei 10-12 nap alatt akár 200 célpontot is képesek leadni. A kérdés persze az, hogy mennyire jól találja azonosítja be a célpontokat.
Nem tudni, mennyire pontos
Egy 2021-es bevetése során a Gospel 200 potenciális célpontot azonosított. Egy elemzői jelentés szerint nagyban megnehezítette az MI munkáját, hogy az adathalmazzal, amivel tanították, mindig csak azt mutatták meg neki, amiket végül tényleg kiválasztottak célpontnak. Olyan adatokat soha nem mutattak neki, amik alapján egy elemző elvetett egy célpontot, mert ezeket a hadsereg nem gyűjtötte. Emiatt az MI részrehajló oktatást kapott. Elképzelhető, hogy ezt azóta orvosolták.
Az október 7-ei terrortámadásban a Hamász 1200 emberrel végzett Izraelben, és több mint 200 embert túszul ejtett. Azóta Izrael még durvábban lövi az egykor kétmilliós lakosságú övezetet, de többször megjegyezték, hogy nehéz dolguk van, mert a Hamász beépítette a civil infrastruktúrát a saját védvonalaiba. Többször is azt állították, hogy a Hamász parancsnoki központokat épített a kórházak alá, bár amikor ezt próbálták bizonyítani, akkor vagy az derült ki, hogy nem mondanak egészen igazat, vagy az, hogy valóban volt egy bunker a kórház alatt, de azt még Izrael építette.
Izrael azt állítja, hogy a modern fegyverek és rendszerek segítségével precíz csapásokat tudnak mérni az ellenségre, amikkel hatalmas károkat okoznak a Hamásznak és „minimális kárt azoknak, akik nem vesznek részt a harcban”. Kritikusok szerint azonban ez nem feltétlenül fedi a valóságot.
„Az MI-rendszerek természete az, hogy statisztikai és valószínűségi következtetéseken és korábbi adatokból származó korrelációkon alapuló eredményeket szolgáltatnak, így ezek nem valamilyen érvelésen, tényszerű bizonyítékon vagy ok-okozati összefüggésen alapszanak. Tekintettel a mesterséges intelligencia rendszerek magas hibaarányára, a célpont-kutatás pontatlan és elfogult automatizálása valójában nem áll messze a válogatás nélküli célzástól”
– mondta az NPR-nak Heidy Khlaaf, a Trail of Bits technológiabiztonsági cég igazgatója.
Az izraeli +972 Magazine és a Local Call nyomozása szerint a hadsereg valójában hamis (tehát nem katonai) célpontokat gyártat az MI-vel, hogy tovább lőhesse a Gázai övezetet, és utólag mutogat a Gosplere, hogy a technológia nem téved. A lapok szerint a hadsereg direkt céloz nem katonai épületeket, hogy minél nagyobb károkat okozzon a palesztin társadalomban – azzal a céllal, hogy a civilek felszólaljanak, vagy akár fellázadjanak a Hamász ellen. A célpontokat az alapján is osztályozzák, hogy hány civil található az épületben, és hogy valószínűleg hány civil fog meghalni a támadásban. Ezt névtelen forrásokra hivatkozva írják, az NPR nem tudta megerősíteni.
A több mint 18 ezer palesztin áldozat túlnyomó része nő vagy gyerek, és elemzések alapján minden harmadik épület az övezetben vagy megsérült, vagy össze is omlott. Az ENSZ szerint 1,9 millió ember vált belső menekültté az izraeli csapások miatt, ami miatt a menedékhelyek négyszeresen túlterheltek.
„Átlagosan 10 500 belső menekült él az UNRWA-óvóhelyeken, ami a kapacitás négyszerese”
– jelentette az ügynökség.
Ki a hibás?
Lucy Suchman, a Lancaster egyetem katonai technológiával foglalkozó antropológusa szerint az egyik következménye annak, hogy az MI 50-szer gyorsabb, mint egy szakember, az, hogy túl vannak terhelve az elemzők, akik végül megkapják az ajánlásokat. Egyre kevesebb idejük lesz egy-egy ilyenre, ami befolyásolhatja az ítélőképességüket.
Mimran attól tart, hogy a nyomás miatt az elemzők egyre gyakrabban inkább látatlanban hinni fognak a gépnek, mert sokkal egyszerűbb ez, mint alaposan átnézni a kapott adatokat. Emiatt egy új probléma is felmerül: ki a hibás, ha az MI téved? A parancsnok, aki az elemző javaslatára kiadta a parancsot egy célpont lebombázására? Az elemző, aki elfogadta a Gospel ajánlását? A programozó, aki kifejlesztette a rendszert? Esetleg az a hírszerző vagy akár szeizmológus, akitől a betanításhoz használt adatok származnak? Khlaaf attól tart, hogy, mivel az MI döntését gyakran lehetetlen megmagyarázni, és modellek óriásiak és összetettek, lehetetlen lesz egy egyént vagy egy szervezetet felelősségre vonni, mert mindenki másra fog mutogatni.
Ahogyan Izrael a mesterséges intelligenciát használja Gázában, valószínűleg nagyon jól bemutatja a hadviselés talán nem is túl távoli jövőjét. Szakértők szerint a legtöbb ország hadserege kísérletezik hasonló megoldásokkal, és ehhez gyakran elég egy hétköznapi, bárki számára elérhető MI, amit aztán a saját adataik alapján kiképeznek, például célpontválogatásra. Mások szerint ez csak egy lépcsőfok a haditechnika fejlődésében: a történelem során egyre kevesebb katona kellett ahhoz, hogy egyre távolabbról egyre nagyobb pusztítást végezzenek, és az MI-vel támogatott fegyverek csupán ennek az új lépcsőfokai.