Tragédia és felelősség: per indult a ChatGPT alkotói ellen, miután egy 16-éves fiú öngyilkosságában „segített” az AI

A 16 éves Adam Raine szülei azt állítják, hogy a ChatGPT nem csupán mellőzte a segítséget, hanem aktívan bátorította gyermekük öngyilkosságát.

A Képernyőidő számol be egy rettenetes ügyről: egy amerikai család pert indított az OpenAI ellen, mivel állításuk szerint a ChatGPT nem védte meg 16 éves fiukat, hanem tanácsokat adott neki az öngyilkossághoz.

Ha többet akarsz tudni, kövess minket Facebookon!
A család szerint Adam 2024 őszén kezdte használni a ChatGPT-t iskolai feladataihoz és szabadidős érdeklődéséhez; gyorsan bizalmas beszélgetőtárssá vált, különösen az angol nyelv és a japán mangakultúra iránti lelkesedésében. 

A kereset szerint a chatbot hónapokon át nemcsak hogy nem próbálta megakadályozni Adam öngyilkossági gondolatait, hanem erősítette azokat. Megmutatott módszereket, segített búcsúlevelet írni. Az eset 2025 áprilisában végződött tragédiával: Adam néhány nappal az online beszélgetések után életét vesztette.

OpenAI válaszlépései és szakértői reakciók

OpenAI részvétét fejezte ki a családnak, és hangsúlyozta, hogy a ChatGPT-ben beépített biztonsági mechanizmusok – például segélyvonalak ajánlása – alapvetően jelen vannak, ám ezek főként rövid interakciók során működnek megbízhatóan. Hosszabb, bizalmas beszélgetésekben a védelem gyakran gyengének bizonyul, ezért a cég szülői felügyeleti funkciók és jobb válságkezelő modulok fejlesztését ígérte.

A RAND Corporation kutatása rávilágít: a nagy AI-chatbotok (ChatGPT, Gemini, Claude) általában kerülik a közvetlen önveszélyes tanácsokat, de a burkoltabb kérdésekben sokszor következetlenek, és olykor veszélyes „segítséget” is adhatnak.

Az AI pszichológiai kockázataival kapcsolatos aggályokat tovább erősíti, hogy Illinois állam 2025 augusztusában törvényben tiltotta meg az AI terápiás célú használatát licencelt szakemberek nélkül – hivatalosan is jelezve, hogy ezek a rendszerek nem alkalmasak kríziskezelésre.