Egy nemrégiben készült tanulmány hat kritikus biztonsági kockázatot tár fel, amelyek a ChatGPT rosszindulatú szereplők általi visszaélése kapcsán merülnek fel.
A közelmúltbeli fejlemények aláhúzták annak fontosságát, hogy megértsük a generatív AI, például a ChatGPT lehetséges visszaéléseit. Az OpenAI vezérigazgatója, Sam Altman a növekvő aggodalomra reagálva a szenátus igazságügyi bizottságának meghallgatásán beszélt a mesterséges intelligencia jövőjéről és lehetséges kockázatairól. Egy nemrég közzétett kutatási dokumentum meglátásai hat fő biztonsági sebezhetőséget emeltek ki a ChatGPT felhasználásával kapcsolatban. A potenciális biztonsági kockázatok a ChatGPT kihasználását jelentik csaló szolgáltatások létrehozására, káros adatszerzésre, magáninformációk nem szándékos felfedésére, rosszindulatú szövegek és kódok előállítására, valamint nem megfelelő tartalmak létrehozására. A következőkben ezeket a sebezhetőségeket vizsgáljuk meg, a tanulmányban dokumentáltak szerint. Adatgyűjtéssel való visszaélés: A ChatGPT hatalmas adatmennyiségének képzése miatt potenciális eszközzé válik a káros információgyűjtésre. Egy rosszindulatú szereplő például arra késztetheti a ChatGPT-t, hogy felfedje az adott bank által használt informatikai rendszereket, és ezáltal olyan érzékeny adatokhoz jusson, amelyek megkönnyíthetik a káros akciókat. Az ilyen visszaélések potenciálisan fontos szerepet játszhatnak egy kibertámadás korai szakaszában. Káros szövegek generálása: A ChatGPT legvonzóbb jellemzői közé tartozik, hogy különféle szövegformákat képes létrehozni. Ezt a sokoldalúságot azonban fel lehet használni káros tartalmak létrehozására, beleértve az adathalász kampányokat, a dezinformációt, például hamis híreket, a spameket és akár a megszemélyesítést is. A tanulmány egyik példája megmutatja, hogy a ChatGPT hogyan tud meggyőzően összeállítani egy adathalász e-mailt, kiemelve e funkció lehetséges visszaélését. Rosszindulatú kód létrehozása: A ChatGPT kódgenerálási képessége sokak számára előnyös lehet, de a rosszindulatú kódok létrehozásának kockázatát is magában hordozza. Megkönnyítheti a kibertámadók számára a gyors kódalkotást, lehetővé téve a fenyegetések gyors telepítését. Emellett a ChatGPT képes homályos kódot generálni, ami potenciálisan megkerülheti a biztonsági észlelési intézkedéseket és a vírusirtó szoftvereket. Etikátlan tartalmak előállítása: Bár a ChatGPT rendelkezik a sértő és etikátlan tartalmak megakadályozására szolgáló mechanizmusokkal, a kitartó kísérletek potenciálisan felülírhatják ezeket a biztosítékokat. A tanulmány ezt úgy mutatja be, hogy a "fejlesztői mód" segítségével a ChatGPT-t ráveszi, hogy egy bizonyos faji csoportra vonatkozó becsmérlő megjegyzéseket fejezzen ki. Csaló szolgáltatások fejlesztése: A ChatGPT azon képessége, hogy segítséget nyújt az alkalmazások, szolgáltatások és weboldalak létrehozásában, áldás lehet a vállalkozók számára, de növeli a csaló platformok létrehozásának kockázatát is. A kiberbűnözők kihasználhatják a ChatGPT-t arra, hogy olyan platformokat tervezzenek, amelyek hitelesen utánoznak, és ingyenes hozzáférést biztosítanak, ezáltal rávehetik a gyanútlan felhasználókat, hogy érzékeny adatokat osszanak meg vagy rosszindulatú programokat telepítsenek. A személyes adatok nyilvánosságra hozatalának kockázata: Bár intézkedésekkel megakadályozzák, hogy a ChatGPT személyes információkat és adatokat osszon meg, a véletlen nyilvánosságra hozatal kockázata fennáll. A tanulmány kiemel egy példát, amikor a ChatGPT kiesése miatt egyes felhasználók megtekintették mások csevegési előzményeit. Továbbá a támadók megpróbálhatják a képzési adatok egyes részeit csoportos következtetéses támadások segítségével kinyerni. Jelentős kockázatot jelent az is, hogy a ChatGPT potenciálisan nyilvános személyek magánéletére vonatkozó információkat, köztük káros vagy spekulatív tartalmakat is megoszthat.