Olyan kódot írt a ChatGPT, amivel érzékeny személyes információkat is ellophat

2023. október 30. – 04:39

Másolás

Vágólapra másolva

Hat mesterséges intelligencia-eszközt, köztük az OpenAI ChatGPT-jét is arra használták ki, hogy olyan kódot írjanak, amely képes károsítani a kereskedelmi adatbázisokat, írja a New Scientist. Úgy tűnik, hogy OpenAI azóta javította a biztonsági rést, a többi eszköz azonban valószínűleg továbbra is tud hackereset játszani.

Brit kutatók úgy manipuláltak hat MI-eszközt, hogy olyan rosszindulatú kódot hozzanak létre, amely érzékeny információkat szivárogtathat ki online adatbázisokból, törölhet fontos adatokat vagy megzavarhatja az adatbázis-felhőszolgáltatásokat.

Ez rosszul hangzik, de valójában segítség az MI-eszközök fejlesztőinek, hogy úgy módosíthassák az eszközöket, hogy azokat ne tudják kihasználni olyanok, akik tényleg vissza is akarnak élni ezekkel a kicsalt információkkal.

„Ez a legelső olyan tanulmány, amely bemutatja, hogy a nagy nyelvi modellek sebezhetőségei általában kihasználhatók az online kereskedelmi alkalmazásokban” – mondja Hszitan Peng, a tanulmány egyik első szerzője.

Peng és munkatársai hat mesterséges intelligencia-szolgáltatással kísérleteztek, mindegyik képes lefordítani a felszólításokat SQL programozási nyelvre. Ezt általában számítógépes adatbázisok lekérdezésére használják. Az úgynevezett „text-to-SQL” rendszerek egyre népszerűbbek, hiszen még az olyan nyilvánosan elérhető mesterségesintelligencia-rendszerek, mint amilyen például a ChatGPT is, képesek használható, valid SQL-kódot generálni.

A kutatóknak sikerült olyan SQL-kódot gyártani, ami adatbázis-információk kiszivárogtatására vonatkozó utasításokat tartalmazott, ez pedig egyenes út lehet a jövőbeli kibertámadások felé. Az ilyen információk aranyat érnek a dark weben, főleg, ha minél személyesebb és érzékenyebb információt tartalmaznak. Elég, ha egy ilyen adatbázis a bankkártyára vagy online vásárlásokra vonatkozó információkat tárol.

A chatbotok által generált kódok ezen kívül lehívhatják a felhasználói profilokat, neveket és jelszavakat tároló rendszeradatbázisokat, és szolgáltatásmegtagadási támadások révén túlterhelhetik az adatbázisokat tároló felhőkiszolgálókat.

A kutatócsoport 2023 februárjában kezdett el dolgozni a ChatGPT-vel, és a tesztek kimutatták, hogy az MI-chatbot képes adatbázisokat károsító SQL-kódot generálni. Még az is kaphat káros kódot, aki a ChatGPT-t mindenféle rosszindulat nélkül arra kéri, hogy generáljon egy adatbázislehívó kódot: például egy ápolónő, aki az egészségügyi rendszer adatbázisában tárolt klinikai feljegyzéseket szeretné megtekinteni. Ez azért is veszélyes, mert a chatbotok nem figyelmeztetik a felhasználót, hogy rosszindulatú kódot generáltak, így az akár teljesen jóhiszeműen is hozzájuthat érzékeny adatokhoz.

A kutatók megjegyezték, hogy az azóta végzett tesztek alapján arra következtetnek, hgoy az OpenAI javította a ChatGPT „text-to-SQL” funkcióját.

Nemcsak a ChatGPT tudott ilyen SQL-kódot készíteni azonban, a kínai Baidu MI-chatbotja is probléma nélkül gyártott kényszerített adatbázis-lekérdező kódokat. Miután a kutatók 2022 novemberében jelentést küldtek a Baidunak a tesztelési eredményeikről, a cég pénzügyi jutalmat adott nekik, majd javította a rendszert. A kutatók azt is megjegyezték, hogy az olyan rendszerek, mint a ChatGPT, könnyebben manipulálhatók káros kódok írására, mint a Baidu-UNIT, ami sokkal szigorúbban szabályozott.

A ChatGPT-t a Telex is próbálta már megtanítani sokmindenre:

Az adatbázis-lopás nem az első komoly probléma, ami felmerült az MI-chatbotokkal kapcsolatban: az Amazon szerint ellepték a felületet ChatGPT-vel írt silány minőségű regények, több író konkrétan lopással vádolta az OpenAI-t, a chatbot bátorított már öngyilkosságra embereket, egy belga férfi emiatt meg is halt, az ESET szerint pedig biztonsági problémát jelentenek az ilyen rendszerek. Az is érdekes volt, amikor márciusban megjelent egy oktatással foglalkozó folyóiratban egy tanulmány, ami amellett érvelt, hogy a mesterséges intelligencia (MI) és az azt kiaknázó csetbotok elterjedése megkönnyíti a csalást és a plagizálást a diákok számára. Ugyan három létező kutató lett megnevezve szerzőként, a tanulmányt valójában egy csetbot írta.

Kedvenceink
Partnereinktől
Kövess minket Facebookon is!