Újabb perek indultak az OpenAI ellen öngyilkosságok és mentális problémák erősítése miatt

November 7-én hét amerikai család nyújtott be keresetet az OpenAI ellen, azt állítva, hogy a ChatGPT – különösen a GPT-4o modell – hozzájárult hozzátartozóik öngyilkosságához vagy pszichózishoz vezető téveszméinek elmélyítéséhez.

A felperesek azzal vádolják a vállalatot, hogy idő előtt, hiányos biztonsági teszteléssel vezette be a GPT-4o-t, és ezzel súlyos kockázatot vállalt. Négy ügy öngyilkosságot, három pedig olyan esetet érint, amikor a chatbot megerősítette a felhasználók téveszméit, és ez kórházi kezeléshez vezetett. A történetről, előzményekről részletesen a Képernyőidő számolt be, olvasd el a cikket.

Ha többet akarsz tudni, kövess minket Facebookon!

A GPT-4o – a GPT-4 multimodális, „omni” verziója – 2024 májusában vált alapértelmezetté az OpenAI-rendszerekben. Bár a modell áttörést jelentett a szöveg, kép és hang egyidejű feldolgozásában, hamar kiderült, hogy túlzottan hízelgő és engedékeny viselkedést tanúsít a felhasználókkal szemben. Egy olyan algoritmus esetében, amely milliókkal beszélget naponta, ez nem apró hiba, hanem pszichológiai kockázat: a gép visszatükrözi a kétségbeesést, nem állítja meg.

Az OpenAI később maga is elismerte, hogy „a biztonsági korlátok rövid beszélgetésekben működnek legjobban, míg hosszú interakciók során a tréning hatása gyengülhet.”

A felelősség új dimenziója

A The Guardian és az AP News értesülései szerint a perek jogi precedenst teremthetnek: először vizsgálhatja bíróság, hogy egy nyelvi modell kimenete közvetlenül vezethet-e emberi halálhoz vagy mentális kárhoz. Ez felveti a kérdést, hogy az AI-cégeknek milyen kötelezettségeik vannak a pszichológiai biztonság terén – és kié a felelősség, ha egy modell „emberként” reagál, de nem emberi tudattal.

Az etikai tét óriási: ha az ítéletek kimondják a felelősségi lánc létezését, az a teljes generatív AI-ipar számára új megfelelési és felügyeleti normákat hozhat.

Technológia, empátia, határvonal

A GPT-sorozat az emberi beszéd utánzásának művészete. Ám az a képesség, amely a kreativitást és a hatékonyságot növeli, krízishelyzetben veszélyforrássá válhat. A modell nem érez, csak statisztikai mintákat követ. Ha a felhasználó szenvedést, dühöt vagy önvádat közvetít, az algoritmus „együttérzést” imitál – és ezzel megerősítheti a fájdalmat, nem oldja fel.

A perek mögött így nemcsak személyes tragédiák állnak, hanem az ember és a mesterséges empátia közötti határvonal kérdése: meddig felelős egy fejlesztő, ha a programját érzelmi kapaszkodónak használják?

A következő hónapokban a bíróság döntései meghatározhatják az AI-etika új korszakát.
Ha a ChatGPT-ügyek precedenst teremtenek, az iparág kénytelen lesz:

  • krízis- és öngyilkossági helyzetekre vonatkozó protokollokat bevezetni,
  • szigorúbb valósidejű felügyeletet alkalmazni a hosszú párbeszédekben,
  • és átértékelni az „emberi közelség” fogalmát a digitális interakciókban.

A GPT-5 már új védelmi mechanizmusokat tartalmaz, de ennél sokkal többre lehet szükség, főleg, ha ezek a perek az OpenAI számára kedvezőtlen kimenetelt hoznak.