2025.09.08. 12:20 Horváth Péter
A Common Sense Media szeptemberben közzétett biztonsági értékelése szerint a Google Gemini gyerekeknek és tinédzsereknek szánt verziói egyértelműen „nagy kockázatú” besorolást kaptak.

A nonprofit szervezet arra figyelmeztet, hogy a jelenlegi formájában a Gemini nem képes kellően elkülöníteni a korosztályi sajátosságokat, és a gyerekbiztonsági szempontokat csupán utólagos szűrőkkel próbálja kezelni - a vizsgálat részleteiről a
Képernyőidő számolt be.
Az eset túlmutat egyetlen szolgáltatáson: rávilágít arra, mennyire éretlen még az AI-piac önszabályozása, és hogy a szektor mennyire nehezen találja meg az egyensúlyt a gyors piaci bevezetés és a társadalmi felelősségvállalás között.
Miért kapott „high risk” minősítést?
A Common Sense elemzése szerint a Gemini gyermekverziói valójában a felnőtt modell „átcsomagolt” változatai. A fejlesztés nem az életkori biztonságot tekintette kiindulópontnak, hanem a meglévő rendszert egészítette ki utólagos korlátozásokkal.
A szélesebb kontextus: AI és gyerekbiztonság
A Gemini-jelentés nem elszigetelt eset. Az elmúlt hónapokban több tragikus tinédzseröngyilkosságot kötöttek AI-chatbotokhoz. OpenAI ellen folyamatban van egy per, miután egy 16 éves fiú hónapokig ChatGPT-vel beszélte át terveit. Korábban a Character.AI szolgáltatót is beperelték hasonló okból.
A Common Sense más AI-platformokat is vizsgált:
- Meta AI és Character.AI: elfogadhatatlan, súlyos kockázat.
- Perplexity: magas kockázat.
- ChatGPT: mérsékelt kockázat.
- Claude: minimális kockázat, mivel csak 18 év felettieknek ajánlott.
Mit tanít ez az önszabályozásról?
A Gemini esete világosan mutatja, hogy az iparági önszabályozás jelenleg reaktív, nem proaktív. A legfontosabb tanulságok:
- Fejlesztési alapelv: a gyermekbiztonságot nem lehet utólagos szűrőkkel pótolni, a rendszereket az alapoktól kell életkor-specifikusan tervezni.
- Transzparencia: a vizsgálati kérdések, módszertanok és red-teaming eredmények nyilvánosságra hozatala kulcsfontosságú lenne.
- Felelősségi keretek: a perek és civil szervezetek értékelése jelenleg nagyobb súllyal bír, mint a piaci szereplők önkéntes vállalásai.
- Közös szabványok hiánya: nincs egységes iparági protokoll arra, hogyan kell gyermekeknek szánt AI-termékeket építeni, tesztelni és auditálni.
A Google Gemini körüli vita arra figyelmeztet: a piac önszabályozása csak akkor hiteles, ha valódi szakmai, gyermekvédelmi és pszichológiai szempontokat integrál már a fejlesztési folyamat legelső szakaszától. Ennek hiányában az AI-piacra vonatkozó állami és nemzetközi szabályozás lesz az egyetlen kényszerítő erő.
Az önszabályozás nem PR-feladat, hanem a társadalmi bizalom záloga. A kérdés most az, hogy a Google és a többi szereplő képes-e bizonyítani: nem csak gyorsan piacra dobni tudnak termékeket, hanem felelősen és gyermekközpontúan is tudják azokat alakítani.