A Stanford Egyetem kutatói szerint a nagyméretű nyelvi modelleken alapuló terápiás chatbotok megbélyegezhetik a mentális egészségi problémákkal küzdő felhasználókat, illetve helytelen vagy akár veszélyes válaszokat adhatnak.

Egy új tanulmány, amelynek címe „Az előítéletek és helytelen válaszok megakadályozzák, hogy a nagyméretű nyelvi modellek biztonságosan helyettesíthessék a mentálhigiénés szakembereket”, öt, elvileg hozzáférhető terápiát kínáló chatbotot vizsgált emberi terapeuta jellemzői alapján.
A tanulmányt még ebben a hónapban bemutatják az ACM Konferencián a tisztesség, felelősség és átláthatóság témakörében.
Nick Haber, a Stanford Oktatási Továbbképző Iskolájának adjunktusa és a tanulmány egyik vezető szerzője elmondta, hogy bár a chatbotokat „társaként, bizalmasként és terapeutaként” használják, a kutatás „jelentős kockázatokat” tárt fel.
A kutatók két kísérletet végeztek:
Bár ezek az eredmények azt jelzik, hogy az AI eszközök messze vannak attól, hogy emberi terapeutákat helyettesítsenek, Moore és Haber szerint más terápiás szerepekben hasznosak lehetnek, például számlázásban, képzésben és a betegek segítésében (például naplóírásban).
„A nagyméretű nyelvi modellek potenciálisan nagyon erős jövővel rendelkeznek a terápiában, de kritikusan kell átgondolnunk, pontosan milyen szerepük legyen” – mondta Haber.
A Képernyőidő oldalán részletes cikk jelent meg a témában, kifejezetten a szülőknek szóló szempontokkal, mivel ezeket a chatbotokat sok fiatal is használja emberi kapcsolatok, vagy terápia helyett.