A Common Sense Media szeptemberben közzétett biztonsági értékelése szerint a Google Gemini gyerekeknek és tinédzsereknek szánt verziói egyértelműen „nagy kockázatú” besorolást kaptak.

A nonprofit szervezet arra figyelmeztet, hogy a jelenlegi formájában a Gemini nem képes kellően elkülöníteni a korosztályi sajátosságokat, és a gyerekbiztonsági szempontokat csupán utólagos szűrőkkel próbálja kezelni - a vizsgálat részleteiről a Képernyőidő számolt be.
Az eset túlmutat egyetlen szolgáltatáson: rávilágít arra, mennyire éretlen még az AI-piac önszabályozása, és hogy a szektor mennyire nehezen találja meg az egyensúlyt a gyors piaci bevezetés és a társadalmi felelősségvállalás között.
A Common Sense elemzése szerint a Gemini gyermekverziói valójában a felnőtt modell „átcsomagolt” változatai. A fejlesztés nem az életkori biztonságot tekintette kiindulópontnak, hanem a meglévő rendszert egészítette ki utólagos korlátozásokkal.
A Gemini-jelentés nem elszigetelt eset. Az elmúlt hónapokban több tragikus tinédzseröngyilkosságot kötöttek AI-chatbotokhoz. OpenAI ellen folyamatban van egy per, miután egy 16 éves fiú hónapokig ChatGPT-vel beszélte át terveit. Korábban a Character.AI szolgáltatót is beperelték hasonló okból.
A Common Sense más AI-platformokat is vizsgált:
A Gemini esete világosan mutatja, hogy az iparági önszabályozás jelenleg reaktív, nem proaktív. A legfontosabb tanulságok:
A Google Gemini körüli vita arra figyelmeztet: a piac önszabályozása csak akkor hiteles, ha valódi szakmai, gyermekvédelmi és pszichológiai szempontokat integrál már a fejlesztési folyamat legelső szakaszától. Ennek hiányában az AI-piacra vonatkozó állami és nemzetközi szabályozás lesz az egyetlen kényszerítő erő.
Az önszabályozás nem PR-feladat, hanem a társadalmi bizalom záloga. A kérdés most az, hogy a Google és a többi szereplő képes-e bizonyítani: nem csak gyorsan piacra dobni tudnak termékeket, hanem felelősen és gyermekközpontúan is tudják azokat alakítani.