Mivel a ChatGPT-hez hasonló generatív AI-szolgáltatások egyre népszerűbbek, egyre nagyobb aggodalomra ad okot az ilyen eszközök használatának biztonsága és etikája.
Az olyan generatív AI-szolgáltatások, mint a ChatGPT, a Bing Chat és a Google Bard egyre népszerűbbek a felhasználók körében, emberek milliói használják ezeket az eszközöket a legkülönfélébb feladatokra, a kísérőlevelek vagy esszék szövegének generálásától kezdve a kódírásig és hibakeresésig. Ahogy azonban ezen eszközök használata egyre szélesebb körben elterjedt, a felhasználók beszélgetéseinek biztonságával és magánéletével kapcsolatos aggályok is felmerülnek. Az aggodalom abból ered, hogy a harmadik fél által üzemeltetett nyomkövetők figyelik, mit csinálnak a felhasználók az interneten, majd ezeket az információkat eladják másoknak, akik el akarnak adni nekik valamit. Ez azt jelenti, hogy a felhasználók beszélgetései és személyes adatai ismeretlen harmadik feleknek is eladhatók. A generatív mesterséges intelligencia szolgáltatások biztonsága és etikája emiatt vizsgálat tárgyává vált. Jean-Paul Schmetz, a Ghostery adatvédelmi szakértő vezérigazgatója nemrég megvitatta a generatív mesterséges intelligenciával kapcsolatos adatvédelmi aggályokat. Schmetz szerint jó hír, hogy az OpenAI még nem engedélyezte a harmadik fél általi nyomon követést a ChatGPT-ben. Továbbá azt állítja, hogy az OpenAI biztonságos, mivel náluk senki sem néz át a felhasználó válla fölött, miközben a ChatGPT-vel cseveg. A felhasználóknak azonban tisztában kell lenniük azzal, hogy bármit is írnak, azt az OpenAI felhasználja a képzéshez, amit a cég adatvédelmi szabályzatában egyértelműen kimondanak. A felhasználók az OpenAI Google-űrlapjának kitöltésével lemondhatnak az adatmegosztásról. Schmetz azt tanácsolja a felhasználóknak, hogy "vigyázzanak, mit mondanak", ha úgy döntenek, hogy nem lépnek ki. 2021-ben a kutatók sebezhetőséget fedeztek fel a GPT-2 rendszerben az adatkinyerési támadások képzésére, amelyek kihasználják a modell eredendő szerepét, hogy a felhasználók által megadott adatokból tanul. Ez azt jelenti, hogy a rosszindulatú személyek arra késztethetik a mesterséges intelligenciát, hogy újraszámolja a felhasználó által korábban beírt konkrét adatokat, beleértve a személyazonosító adatokat, például neveket, címeket és telefonszámokat, valamint bármi mást, amit a felhasználó megosztott a rendszerrel. Az OpenAI elnöke és társalapítója, Greg Brockman kiemelte, hogy a vállalat elkötelezett a modelljei biztonsága mellett. Azt mondta: "Úgy gondoljuk, hogy az erőteljes gyakorlófuttatásokat jelenteni kell a kormányoknak, és azokat egyre kifinomultabb előrejelzésekkel kell kísérni a képességeikről és hatásukról, és olyan bevált gyakorlatokat kell alkalmazni, mint például a veszélyes képességek tesztelése". A Ghostery, amely leginkább a legjobb minősítésű böngészőbővítményéről ismert, "követi a nyomkövetőket", de egy adatvédelmi csomagot is kínál, amely nyomkövető és reklámblokkolót, privát böngészőt, privát keresést és nyomkövető elemzést tartalmaz. Jean-Paul Schmetz elmagyarázza, hogy a Ghostery jól teljesít a valós világban a belső nyomon követéssel, ami egy orvossal való beszélgetés vagy egy bolti eladóval való csevegés lenne, de óva int a harmadik féltől származó nyomkövetéstől, ami ellen a Ghostery online védelmet nyújt. Összefoglalva, bár az olyan generatív AI-szolgáltatások, mint a ChatGPT számos előnyt nyújtanak, például szöveggenerálást és kódírást, a felhasználóknak tisztában kell lenniük az ilyen szolgáltatásokkal kapcsolatos adatvédelmi és biztonsági kockázatokkal. A felhasználók beszélgetései és személyes adatai ismeretlen harmadik félnek eladhatók, és az adatok megsértése és a harmadik fél általi nyomon követés gyakori kockázatot jelent. A felhasználóknak figyelniük kell arra, hogy milyen információkat osztanak meg a mesterséges intelligenciával, és az OpenAI adatvédelmi szabályzatát gondosan el kell olvasni a generatív AI-szolgáltatások biztonságos használatának biztosítása érdekében.