Az olasz adatvédelmi biztos a ChatGPT blokkolását rendelte el, arra hivatkozva, hogy az OpenAI adatkezelési gyakorlata sérti a GDPR-t, és lehetővé teszi, hogy a kiskorúak nem megfelelő tartalmakat láthassanak.
Az olasz szabályozó hatóság azt állítja, hogy az OpenAI megsérti az Európai Unió általános adatvédelmi rendeletét (GDPR) azzal, hogy jogalap nélkül, tömegesen gyűjt adatokat a ChatGPT modelljének képzése céljából. A szabályozó hatóság azt is kiemeli, hogy a mesterséges intelligencia által generált eredmények néha pontatlanok, ami arra utal, hogy a mesterséges intelligencia esetleg nem megfelelően kezeli az adatokat. Emellett a tisztviselők aggódnak egy nemrégiben felmerült hiba miatt, amely érzékeny felhasználói adatokat szivárogtatott ki. Az adatvédelmi biztos emellett a gyermekeknek okozott lehetséges károk miatt is aggódik, mivel nincs életkor-ellenőrzés, amely megakadályozná, hogy "teljesen alkalmatlan" válaszokat lássanak. Bár az OpenAI azt állítja, hogy a ChatGPT 13 éven felülieknek szól, a tisztviselők szerint a vállalat nem tesz eleget annak érdekében, hogy megvédje a gyerekeket a nem megfelelő tartalmaktól. Az OpenAI 20 napot kapott arra, hogy orvosolja a felvetett problémákat, ellenkező esetben a vállalat akár 20 millió eurós bírságra vagy éves világméretű forgalmának legfeljebb négy százalékára is számíthat. Az OpenAI ChatGPT adatvédelmi irányelvei lehetővé teszik a beszélgetési adatok felhasználását a mesterséges intelligencia fejlesztéséhez, de a vállalat összesíti vagy anonimizálja ezeket az adatokat. A vállalat szolgáltatási feltételei tiltják a 13 év alatti gyermekek általi használatot, míg a vállalat irányelvei szerint a vállalat "tudatosan" nem gyűjt személyes adatokat kiskorú felhasználóktól. Érdekes, hogy az intézkedés mindössze egy nappal azután történt, hogy egy nonprofit kutatószervezet panaszt nyújtott be az amerikai Szövetségi Kereskedelmi Bizottsághoz (FTC), remélve, hogy leállítja a ChatGPT jövőbeli kiadásait, amíg az OpenAI nem felel meg az ügynökség átláthatóságra, tisztességre és egyértelműségre vonatkozó iránymutatásainak. Ezenfelül a szakértők hat hónapos szünetet kértek az AI-fejlesztésben az etikai kérdések kezelése érdekében. Összefoglalva, az OpenAI ChatGPT-je Olaszországban komoly adatvédelmi aggályokkal néz szembe. A vállalat 20 napot kapott arra, hogy megoldja ezeket a problémákat, és ha nem tesz eleget a követelményeknek, akkor jelentős bírságokat vagy betiltást kaphat az országban.