2023.08.03. VipAIR
Kutatók egy csoportja megkongatta a vészharangot az AI chatbotok egyik legnagyobb hibája miatt: biztonsági intézkedéseik áthághatók, és nem tudják, hogyan javítsák ki őket.
-
Kutatók gyakorlatilag korlátlan számú módot találtak arra, hogy megkerüljék a tartalom moderálását a főbb AI-alapú chatbotokon.
-
A "jailbreakek" potenciálisan arra használhatók, hogy a botokat káros tartalmak létrehozására vagy illegális tevékenységekre vonatkozó tanácsadásra késztessék.
-
A szakértők arra figyelmeztetnek, hogy jelenleg nincs megoldás a problémára, ami kérdéseket vet fel a nyilvánosan elérhető AI-termékek biztonságával kapcsolatban.
A
Carnegie Mellon Egyetem (CMU) és a Center for AI Safety kutatóinak nemrégiben készült jelentése sokkoló hullámokat keltett a technológiai közösségben. Felfedezték, hogy gyakorlatilag korlátlanul meg lehet kerülni a tartalom moderálását a főbb AI-alapú chatbotokon, például az
OpenAI ChatGPT-jén, a
Google Bard-ján és az
Anthropic Claude-ján. Ezeket a "jailbreakeket" automatizált módon hozták létre, ami lehetővé teszi, hogy a botokat káros tartalmak létrehozására vagy akár illegális tevékenységekre vonatkozó tanácsadásra késztessék.
Ennek a felfedezésnek mélyreható következményei vannak. Zico Kolter, a CMU docense kijelentette: „Tudomásunk szerint nincs mód arra, hogy ezt befoltozzuk. Egyszerűen nem tudjuk, hogyan lehetne biztonságossá tenni őket”. A tanulmány megállapításait a szakértők „rendkívül meglepőnek” nevezték, és komoly kérdéseket vetettek fel a nyilvánosan elérhető mesterséges intelligencia termékek biztonságával kapcsolatban. A chatbotok védőkorlátjainak alááshatósága messzemenő következményekkel járhat az iparágra nézve.
A technológiai óriások küzdenek a kérdéssel, elismerik a problémát, de nem kínálnak azonnali megoldást. A Google szóvivője megjegyezte, hogy a probléma minden nagy nyelvi modellt érint, és hogy idővel javítani tervezik a védőkorlátokat. Eközben az Anthropic képviselője a jailbreaking intézkedéseket aktív kutatási területnek nevezte és elismerte, hogy további munkára van szükség. A helyzet kiemeli a mesterséges intelligencia biztonságának folyamatos kihívásait, valamint a folyamatos éberség és innováció szükségességét.