A PrivateAI elindította a PrivateGPT-t, egy olyan adatvédelmi réteget, amelynek célja az érzékeny információk automatikus csökkentése a nagy nyelvi modellek, például a ChatGPT felhasználói kéréseiből.
A PrivateAI, egy adatvédelmi szolgáltató nemrég mutatta be a PrivateGPT nevű új eszközét, amely a nagy nyelvi modellek (LLM), például az OpenAI ChatGPT-jéhez hasonló LLM adatvédelmi aggályainak kezelésére szolgál. Ez az "adatvédelmi réteg" egy saját AI-rendszert használ arra, hogy automatikusan több mint 50 típusú személyazonosításra alkalmas információt (PII) redukáljon a felhasználói kérésekből. A szerkesztés után a PII helyébe helyőrző adatok lépnek, így a felhasználók anélkül léphetnek kapcsolatba az LLM-mel, hogy érzékeny információkat adnának ki az OpenAI számára. Az utóbbi időben az OpenAI-t fokozottan ellenőrzik adatvédelmi gyakorlata miatt. Olaszország például adatvédelmi aggályok miatt ideiglenesen betiltotta a ChatGPT-t, míg Kanada szövetségi adatvédelmi biztosa vizsgálatot indított a szervezet ellen egy, a személyes adatok hozzájárulás nélküli gyűjtésével, felhasználásával és közzétételével kapcsolatos panaszt követően. Patricia Thaine, a PrivateAI vezérigazgatója ezért úgy véli, hogy a generatív AI csak akkor használható biztonságosan, ha a megfelelő eszközök állnak rendelkezésre. "A ChatGPT-t nem zárják ki az olyan adatvédelmi jogszabályok, mint a GDPR, a HIPAA, a PCI DSS vagy a CPPA. A GDPR például megköveteli a vállalatoktól, hogy a felhasználók személyes adatainak minden felhasználásához hozzájárulást szerezzenek be, és eleget tegyenek az adatok törlésére irányuló kérelmeknek is" – mondta Thaine. "A személyes adatok harmadik fél szervezetekkel való megosztásával elveszítik az adatok tárolásának és felhasználásának módját, és ezzel komoly kockázatot jelentenek a megfelelőség megsértése miatt." A PrivateAI PrivateGPT nem az egyetlen megoldás erre a problémára. Március végén a Cado Security kiadta a Masked-AI-t, egy nyílt forráskódú eszközt, amely elrejti az olyan érzékeny adatokat, mint a hitelkártyaszámok, e-mail címek, weblinkek és IP-címek a GPT-4-hez, az OpenAI közelgő LLM-jéhez benyújtott kérésekből. A PrivateAI és a Cado Security erőfeszítései rávilágítanak az adatok anonimizálási technikáinak fontosságára azon szervezetek számára, amelyek a ChatGPT-hez hasonló megoldásokat szeretnének használni, miközben korlátozzák a harmadik feleknek való kitettségüket. Mivel az adatok anonimizálási technikái egyre fontosabbá válnak, az iparágnak jobb eszközöket kell kifejlesztenie annak biztosítására, hogy az érzékeny információk védve legyenek, ugyanakkor lehetővé tegyék az LLM-ek használatát.