2025.08.10. Horváth Péter
Először fordult elő, hogy biztonsági kutatók bizonyították: egy generatív AI feltörésével valódi, fizikai károkat is lehet okozni.

Példátlan módon, nemrégiben biztonsági kutatók igazolták, hogy egy generatív mesterséges intelligenciát – a Google Gemini-t – távolról, mérgezett naptármeghívó segítségével feltörve valódi fizikai károkat lehet okozni.
A Gemini AI-t manipulálva egy tel-avivi okosotthonban a támadók távolról kapcsolták le a villanyt, húzták fel a redőnyöket és indították el a kazánt. Ez az első olyan demonstráció, amely bizonyítja, hogy az AI prompt-injekciós sebezhetőségei kiterjedhetnek a fizikai világra is.
A támadás részletei: indirekt prompt-injekció egy naptármeghívóban
A támadási mechanizmus hátsó részében egy kifinomult prompt-injekció állt, amelynek forrása egy ártatlannak tűnő Google Naptár-meghívó volt. Ebbe a meghívóba rejtették az utasításokat, amelyek akkor aktiválódtak, amikor az AI-t arra kérték, foglalja össze egy heti programját. Ezzel az indítópulzusra a Gemini végrehajtotta a beágyazott utasításokat, például a Google Home eszközökön keresztül vezérelte az okosotthon automatizált rendszereit. A kutatók 14 különféle támadási forgatókönyvet demonstráltak, beleértve spam küldést, nem megfelelő tartalmak generálását, Zoom-hívások önálló elindítását, illetve e-mailek és naptárbejegyzések ellopását is. A projekt az „Invitation Is All You Need” nevet kapta, utalva a mesterséges intelligencia kutatásban alapvető „Attention Is All You Need” tanulmányra.
A Google válasza és fejlett biztonsági mechanizmusai
A sebezhetőséget a kutatók még februárban jelentették a Google-nek, amely azóta sorozatos védekezési intézkedéseket vezetett be. A Google Workspace biztonsági vezetője, Andy Wen szerint az éles környezetben nem tapasztaltak visszaélést, azonban az eset felgyorsította az AI prompt-injekció elleni védekezés kialakítását. A rendszer több rétegben ellenőrzi a bemeneti utasításokat, az AI „gondolatmenetét” (azaz a modell belső válaszfolyamatait), valamint a kimenetet is. Egyes esetekben maga az AI is igyekszik felismerni és eltávolítani a potenciálisan veszélyes tartalmakat, melyet a szakzsargon „security thought reinforcement”-nek nevez.
Emellett a Google gépi tanulási algoritmusokat alkalmaz a gyanús parancsok felismerésére, valamint növelik a felhasználói jóváhagyások szigorúságát kritikus műveletek végrehajtása előtt. Fontos, hogy a Gemini appok adatvédelmi központja is részletes kontrollokat kínál a felhasználók számára, és a beszélgetéseket különös gondossággal kezelik adatvédelmi szempontból.
Az indirekt prompt-injekció jelentősége és veszélyei
Míg a közvetlen prompt-injekció során a felhasználó maga adja meg a manipulált kérést, az indirekt módszer esetében a rosszindulatú utasítások külső, ártatlannak tűnő forrásból, például weboldalakból, dokumentumokból vagy akár naptárbejegyzésekből érkeznek. Ez különösen veszélyes, mivel az AI rendszerek egyre több feladatot végeznek automatizáltan, kapcsolódnak különféle eszközökhöz és rendszerekhez. Az LLM-ek, mint a Gemini, jelenleg különösen sebezhetőek ezen „promptware” támadásokkal szemben, mivel a védekező mechanizmusok még nem fejlődnek olyan gyorsan, mint az AI integrációja a különböző informatikai környezetekben.
Állami támogatású csoportok kibertevékenységei a Gemini AI-val
A Google Threat Intelligence Group (GTIG) 2025-ös megfigyelései szerint több mint 20 országból származó, köztük irányított állami támogatású fenyegetési szereplők (APT-k) – különösen kínai, iráni, észak-koreai és orosz csoportok – kísérleteznek a Gemini AI eszközeivel. Ezeket a generatív AI-t elsősorban a támadásaik hatékonyságának növelésére használják, például sebezhetőségek kutatására, adathalász kampányok megtervezésére, illetve a támadások előkészítési szakaszának lerövidítésére.
Legintenzívebben az iráni és kínai csoportok alkalmazzák a Geminit technikai magyarázatok, kódírás és a hálózaton belüli laterális mozgás támogatására. Észak-koreai csoportok malware fejlesztését és detektálás elkerülési technikák kidolgozását végezték az AI segítségével, míg az orosz szereplők inkább a helyi AI fejlesztések mellett preferálják a Gemini minimális használatát operatív biztonsági okokból.
Jelentkező kihívások és a jövő biztonsági trendjei
A Gemini mellett a mesterséges intelligencia piacán egyre több olyan modell jelenik meg, amelyek sebezhetőek a prompt-injektálási támadásokkal szemben, így az AI visszaélések egyre gyakoribbak. A jailbreak módszerek, melyek megkísérlik kijátszani a biztonsági korlátozásokat, aktív fenyegetést jelentenek, bár a Google és más fejlesztők folyamatosan dolgoznak a védelem fejlesztésén.
A 2025-ös trendek azt mutatják, hogy a vállalatok és állami szervezetek egyre kifinomultabb AI-alapú védelmi mechanizmusokat vezetnek be a támadások kiszűrésére, miközben az AI-kiberbiztonság és adatvédelem területe kulcsfontosságúvá válik a digitális világ biztonsága szempontjából.