2023.05.19. VipAIR
Egy nemrégiben készült tanulmány hat kritikus biztonsági kockázatot tár fel, amelyek a ChatGPT rosszindulatú szereplők általi visszaélése kapcsán merülnek fel.

A közelmúltbeli fejlemények aláhúzták annak fontosságát, hogy megértsük a generatív AI, például a
ChatGPT lehetséges visszaéléseit. Az
OpenAI vezérigazgatója, Sam Altman a növekvő aggodalomra reagálva a szenátus igazságügyi bizottságának meghallgatásán beszélt a mesterséges intelligencia jövőjéről és lehetséges kockázatairól. Egy nemrég közzétett kutatási dokumentum meglátásai hat fő biztonsági sebezhetőséget emeltek ki a ChatGPT felhasználásával kapcsolatban.
A potenciális biztonsági kockázatok a ChatGPT kihasználását jelentik csaló szolgáltatások létrehozására, káros adatszerzésre, magáninformációk nem szándékos felfedésére, rosszindulatú szövegek és kódok előállítására, valamint nem megfelelő tartalmak létrehozására. A következőkben ezeket a sebezhetőségeket vizsgáljuk meg, a tanulmányban dokumentáltak szerint.
Adatgyűjtéssel való visszaélés:
A ChatGPT hatalmas adatmennyiségének képzése miatt potenciális eszközzé válik a káros információgyűjtésre. Egy rosszindulatú szereplő például arra késztetheti a ChatGPT-t, hogy felfedje az adott bank által használt informatikai rendszereket, és ezáltal olyan érzékeny adatokhoz jusson, amelyek megkönnyíthetik a káros akciókat. Az ilyen visszaélések potenciálisan fontos szerepet játszhatnak egy kibertámadás korai szakaszában.
Káros szövegek generálása:
A ChatGPT legvonzóbb jellemzői közé tartozik, hogy különféle szövegformákat képes létrehozni. Ezt a sokoldalúságot azonban fel lehet használni káros tartalmak létrehozására, beleértve az adathalász kampányokat, a dezinformációt, például hamis híreket, a spameket és akár a megszemélyesítést is. A tanulmány egyik példája megmutatja, hogy a ChatGPT hogyan tud meggyőzően összeállítani egy adathalász e-mailt, kiemelve e funkció lehetséges visszaélését.
Rosszindulatú kód létrehozása:
A ChatGPT kódgenerálási képessége sokak számára előnyös lehet, de a rosszindulatú kódok létrehozásának kockázatát is magában hordozza. Megkönnyítheti a kibertámadók számára a gyors kódalkotást, lehetővé téve a fenyegetések gyors telepítését. Emellett a ChatGPT képes homályos kódot generálni, ami potenciálisan megkerülheti a biztonsági észlelési intézkedéseket és a vírusirtó szoftvereket.
Etikátlan tartalmak előállítása:
Bár a ChatGPT rendelkezik a sértő és etikátlan tartalmak megakadályozására szolgáló mechanizmusokkal, a kitartó kísérletek potenciálisan felülírhatják ezeket a biztosítékokat. A tanulmány ezt úgy mutatja be, hogy a "fejlesztői mód" segítségével a ChatGPT-t ráveszi, hogy egy bizonyos faji csoportra vonatkozó becsmérlő megjegyzéseket fejezzen ki.
Csaló szolgáltatások fejlesztése:
A ChatGPT azon képessége, hogy segítséget nyújt az alkalmazások, szolgáltatások és weboldalak létrehozásában, áldás lehet a vállalkozók számára, de növeli a csaló platformok létrehozásának kockázatát is. A kiberbűnözők kihasználhatják a ChatGPT-t arra, hogy olyan platformokat tervezzenek, amelyek hitelesen utánoznak, és ingyenes hozzáférést biztosítanak, ezáltal rávehetik a gyanútlan felhasználókat, hogy érzékeny adatokat osszanak meg vagy rosszindulatú programokat telepítsenek.
A személyes adatok nyilvánosságra hozatalának kockázata:
Bár intézkedésekkel megakadályozzák, hogy a ChatGPT személyes információkat és adatokat osszon meg, a véletlen nyilvánosságra hozatal kockázata fennáll. A tanulmány kiemel egy példát, amikor a ChatGPT kiesése miatt egyes felhasználók megtekintették mások csevegési előzményeit. Továbbá a támadók megpróbálhatják a képzési adatok egyes részeit csoportos következtetéses támadások segítségével kinyerni. Jelentős kockázatot jelent az is, hogy a ChatGPT potenciálisan nyilvános személyek magánéletére vonatkozó információkat, köztük káros vagy spekulatív tartalmakat is megoszthat.