AI kutatók kritikus sebezhetőséget találtak olyan nagy nyelvi modellekben, mint a ChatGPT

A ChatGPT-hez hasonló AI-modellek robusztussága megkérdőjeleződik, mivel a kutatók bebizonyították, milyen megdöbbentően könnyen lehet kritikus sebezhetőségüket felfedni.

  • A ChatGPT-hez hasonló LLM-ek hatalmas népszerűségre tettek szert, de a kutatók kritikus sebezhetőségeket találtak.

  • A szakértők a „modell szivárgás” nevű módszerrel lemásolták a ChatGPT kulcsfontosságú elemeit, feltárva ezzel a lehetséges kockázatokat.

  • Az LLM-ekben rejlő átalakító potenciál ellenére sürgető szükség van a kapcsolódó kiberkockázatok kezelésére.

A nagy nyelvi modellek (LLM) népszerűsége, mint például az OpenAI ChatGPT-je és a Google Bard-ja, nagyon hamar felkapottá váltak. A vállalatok erőforrásokat ölnek a fejlesztésükbe, remélve, hogy kiaknázhatják a bennük rejlő lehetőségeket. Ezek a gyakran chatbotokba integrált AI-eszközök bejárják az internetet, tanulnak és válaszokat generálnak. A Lancaster Egyetem Mindgard kutatóinak közelmúltbeli felfedezése azonban sokkolta a technológiai közösséget. Bemutatták, hogy ezeknek az LLM-eknek egy része napok alatt, mindössze 50 dollárért lemásolható. Ez a replikáció célzott támadásokhoz vezethet, kockáztatva az adatok kiszolgáltatottságát, megkerülve a biztonsági intézkedéseket és akár kifinomultabb támadásokat is lehetővé tesz.

A kutatók a „modell szivárgás” elnevezésű technikát alkalmazták. A ChatGPT-3.5-Turbo konkrét utasításokkal történő bevonásával betekintést nyerhettek annak belső működésébe. Meglepő módon sikerült lemásolniuk az LLM létfontosságú összetevőit egy százszor kisebb modellben. Ez a kisebb modell aztán tesztelési terep lett, amely feltárta a ChatGPT sebezhetőségeit és 11%-kal növelte a gyenge pontok kihasználásának sikerességét. Dr. Peter Garraghan, a tanulmány egyik kulcsfigurája egyszerre nevezte lenyűgözőnek és aggasztónak az eredményeiket. Hangsúlyozta felfedezésük súlyosságát, különösen, ha figyelembe vesszük, hogy nyilvánosan elérhető gépi tanulási modellekre támaszkodtak.

A tanulmány rávilágít egy égető hiányosságra: az AI-technológiák rejtett sebezhetőségére. Mivel a vállalkozások arra készülnek, hogy nagymértékben fektessenek be az LLM-ekbe az intelligens asszisztensektől a pénzügyi szolgáltatásokig terjedő alkalmazásokban, nem lehet eléggé hangsúlyozni a kiberkockázatok felismerésének és mérséklésének fontosságát. Dr. Peter Garraghan hangsúlyozza, hogy az LLM technológia alkalmazása során feltétlenül meg kell érteni ezeket a kockázatokat.

Megosztás Facebookon