Az európai fogyasztói szervezetek felszólítják a hatóságokat, hogy vizsgálják meg a generatív AI által jelentett potenciális veszélyeket, és szerezzenek érvényt a meglévő jogszabályoknak.
Az európai fogyasztói szervezetek 13 országban sürgetik a hatóságokat, hogy kezdeményezzenek vizsgálatokat a generatív AI-val, például a ChatGPT-vel kapcsolatos potenciális veszélyekkel kapcsolatban. A követelés szinkronban van a norvég fogyasztói csoport és a BEUC tagja, a Forbrukerrådet által közzétett jelentéssel. A jelentés rávilágít a generatív AI-hoz kapcsolódó sokrétű kockázatokra, jelzi a meglévő szabályozási pajzsokat, és rámutat azokra a területekre, amelyek további jogi keretfejlesztést igényelnek. Ursula Pachl, a BEUC főigazgató-helyettese aggodalmának adott hangot a ChatGPT-hez hasonló generatív AI-rendszerekkel kapcsolatban, kiemelve a megtévesztés, a kizsákmányolás és a személyes károkozás lehetőségét. Aggodalmak merültek fel a dezinformáció terjedésével, az előítéletek megerősítésével és az ilyen mesterséges intelligencia rendszerek által támogatott csaló tevékenységek lehetőségével kapcsolatban is. "Felszólítjuk a biztonsági, adat- és fogyasztóvédelmi szerveket, hogy haladéktalanul indítsanak vizsgálatokat, és ne várják meg, hogy a fogyasztóknak kárt okozzanak. A törvények minden termékre és szolgáltatásra vonatkoznak, legyen az mesterséges intelligencia alapú vagy más, és a hatóságok általi végrehajtás kritikus fontosságú" – jegyezte meg Pachl. Az EU közelgő, a mesterséges intelligencia rendszerekre vonatkozó átfogó szabályozása kulcsfontosságúnak tekinthető a fogyasztóvédelem biztosításában. A rendelet minden mesterséges intelligenciával működő rendszert, beleértve a generatív AI-t is, nyilvános vizsgálatnak vet majd alá, és megerősíti a hatóságok befolyását. A Forbrukerrådet jelentése felvázolja a generatív AI-ból eredő jelenlegi és küszöbön álló kihívásokat, veszélyeket és károkat. A számottevő aggodalmak közé tartoznak a hatalommal, az átláthatósággal és az elszámoltathatósággal kapcsolatos kérdések, különösen amiatt, hogy egyes AI-fejlesztők korlátozzák a külső vizsgálatot, elhomályosítva az adatgyűjtési módszerek és a döntéshozatali folyamatok megértését. A jelentés rávilágít a generatív AI rendszerek hibás vagy pontatlan kimeneteire is, amelyek a kontextus megértését nélkülöző tartalmat generálhatnak, ami potenciális károkat okozhat.