A chatbotok biztonsági szabályának megkerülésére gyakorlatilag korlátlan mód van, mondják az AI-kutatók

Kutatók egy csoportja megkongatta a vészharangot az AI chatbotok egyik legnagyobb hibája miatt: biztonsági intézkedéseik áthághatók, és nem tudják, hogyan javítsák ki őket.

  • Kutatók gyakorlatilag korlátlan számú módot találtak arra, hogy megkerüljék a tartalom moderálását a főbb AI-alapú chatbotokon.

  • A "jailbreakek" potenciálisan arra használhatók, hogy a botokat káros tartalmak létrehozására vagy illegális tevékenységekre vonatkozó tanácsadásra késztessék.

  • A szakértők arra figyelmeztetnek, hogy jelenleg nincs megoldás a problémára, ami kérdéseket vet fel a nyilvánosan elérhető AI-termékek biztonságával kapcsolatban.

A Carnegie Mellon Egyetem (CMU) és a Center for AI Safety kutatóinak nemrégiben készült jelentése sokkoló hullámokat keltett a technológiai közösségben. Felfedezték, hogy gyakorlatilag korlátlanul meg lehet kerülni a tartalom moderálását a főbb AI-alapú chatbotokon, például az OpenAI ChatGPT-jén, a Google Bard-ján és az Anthropic Claude-ján. Ezeket a "jailbreakeket" automatizált módon hozták létre, ami lehetővé teszi, hogy a botokat káros tartalmak létrehozására vagy akár illegális tevékenységekre vonatkozó tanácsadásra késztessék.

Ennek a felfedezésnek mélyreható következményei vannak. Zico Kolter, a CMU docense kijelentette: „Tudomásunk szerint nincs mód arra, hogy ezt befoltozzuk. Egyszerűen nem tudjuk, hogyan lehetne biztonságossá tenni őket”. A tanulmány megállapításait a szakértők „rendkívül meglepőnek” nevezték, és komoly kérdéseket vetettek fel a nyilvánosan elérhető mesterséges intelligencia termékek biztonságával kapcsolatban. A chatbotok védőkorlátjainak alááshatósága messzemenő következményekkel járhat az iparágra nézve.

A technológiai óriások küzdenek a kérdéssel, elismerik a problémát, de nem kínálnak azonnali megoldást. A Google szóvivője megjegyezte, hogy a probléma minden nagy nyelvi modellt érint, és hogy idővel javítani tervezik a védőkorlátokat. Eközben az Anthropic képviselője a jailbreaking intézkedéseket aktív kutatási területnek nevezte és elismerte, hogy további munkára van szükség. A helyzet kiemeli a mesterséges intelligencia biztonságának folyamatos kihívásait, valamint a folyamatos éberség és innováció szükségességét.

Megosztás Facebookon