A mesterséges intelligencia gyors ütemű terjedése nemcsak új üzleti lehetőségeket hozott, hanem komoly kockázatokat is. Egy friss felmérés szerint a munkavállalók közel fele titokban használ AI-eszközöket a mindennapi munkájában.
Mindezt teszi a munkavállaló sokszor úgy, hogy sem az informatikai, sem a jogi osztály nem tud róla. Ez a jelenség, amelyet szaknyelven „shadow AI”-nak – árnyék MI-nek – neveznek, rövid időn belül az egyik legsúlyosabb vállalati kockázattá válhat - számol be cikkében a 24.hu.
A shadow AI minden olyan mesterségesintelligencia-eszközt jelent, amelyet a dolgozók engedély nélkül, saját kezdeményezésre vetnek be:
A közös bennük: semmilyen belső nyilvántartásban nem szerepelnek, és a cégnek nincs rálátása arra, hogy pontosan milyen adatok, milyen környezetben kerülnek feldolgozásra.
Dr. Kopasz János, a Taylor Wessing ügyvédi iroda adatvédelmi és AI-szabályozási szakértője a 24.hu oldalnak nyilatkozva elmondta, hogy a kockázat messze túlmutat a technológiai kérdéseken. Ha egy vállalat nem tudja igazolni, hogy az AI-használat jogszerű és megfelel az uniós előírásoknak, az adatvédelmi hatóság több tízmillió eurós bírságot is kiszabhat a GDPR vagy az AI Act megsértése miatt. Ez ráadásul nemcsak pénzügyi teher, hanem reputációs csapás is lehet, amely évekre megtörheti a vállalat hitelességét.
„Sokan azzal védekeznek, hogy a modern AI-platformoknál beállítható: a bevitt adatok nem kerülnek be a modell tanításába. Ez azonban csak részmegoldás. Nem orvosolja a feldolgozás jogalapjának hiányát, az adattovábbítás EU-n kívülre történő kockázatát, a jogosulatlan hozzáférések veszélyét vagy az auditálhatóság teljes hiányát” – figyelmeztet Kopasz.
A shadow AI nemcsak adatvédelmi, hanem kiberbiztonsági és szellemi tulajdonvédelmi szempontból is veszélyes. Egy nyílt AI-platformra feltöltött belső fejlesztési dokumentum, ügyféladat vagy pénzügyi tábla nemcsak illetéktelen kezekbe kerülhet, hanem később tréningadatként is felhasználódhat. Az AI-modellek így „tanulhatnak” a vállalat saját know-how-jából, amely akár versenytársakhoz is visszaszivároghat.
Ráadásul a felügyelet nélküli AI-használat új támadási felületet nyit: egy sebezhető API-kapcsolaton keresztül könnyen bekövetkezhet adatszivárgás, rosszindulatú kód bejuttatása vagy akár phishing-támadás. Ha mindez a dolgozó privát fiókján keresztül történik, a vállalat teljes kontroll nélkül marad.
A szakértők szerint a tiltás nem működik: az AI annyira hasznos eszközzé vált, hogy a dolgozók akkor is használni fogják, ha hivatalosan tilos. A megoldás a szabályozott integráció, vagyis olyan keretrendszer kialakítása, amely egyszerre garantálja a biztonságot és lehetővé teszi az üzleti előnyök kiaknázását.
A technikai kontrollok sem hiányozhatnak: vállalati AI-fiókok, Data Loss Prevention (DLP) és Cloud Access Security Broker (CASB) rendszerek, valamint folyamatos kiberbiztonsági monitorozás biztosítják, hogy az AI-használat auditálható és védett legyen.