Kutatók vizsgálják az AI-modellek dezinformáció terjesztésének lehetőségét

A Zürichi Egyetem friss tanulmánya a fejlett AI-modellek – például az OpenAI GPT-3 – riasztó potenciálját vizsgálja, amely félrevezető információk előállítására és terjesztésére alkalmas.

A Zürichi Egyetem kutatócsoportja megdöbbentő eredményeket tárt fel az OpenAI által kifejlesztett nyelvi modellel, a GPT-3-mal kapcsolatban. A közzétett tanulmányuk szerint a GPT-3 képes nemcsak pontos, hanem meggyőző tweetek generálására is, még akkor is, ha azok hamis információkat tartalmaznak. Ez a kutatás rávilágít arra, hogy az egyéneknek milyen nehézséget okoz megkülönböztetni a GPT-3 által készített és a valódi emberi Twitter-felhasználók által írt tweeteket, ami aggodalomra ad okot a mesterséges intelligencia modellek hamisított információk terjesztésére való visszaélésével kapcsolatban.

Eredményeik igazolása érdekében a kutatók úgy tesztelték a modellt, hogy arra kérték, hogy írjon elfogult termékértékeléseket olyan platformokon, mint a TripAdvisor és az Amazon, és állítson össze valótlan politikai híreket. Az eredmények azt mutatták, hogy a modell képes volt olyan szövegeket generálni, amelyeket ember nem tudott volna megírni, így megtévesztve a gyanútlan olvasókat, hogy igaznak fogadják el a téves adatokat.

Ez a tanulmány kiemeli a fejlett nyelvi modellezésnek a hamis adatok internetes terjesztésére való felhasználásával kapcsolatos növekvő aggodalmakat, különösen mivel a hagyományos médiába vetett hit egyre inkább csökken és az emberek egyre inkább a közösségi médiához fordulnak híreikért. Ahogy az ilyen mesterséges intelligencia modellek használata egyre szélesebb körben elterjed, elengedhetetlenné válik, hogy hatékony stratégiákat dolgozzunk ki az online információk fedhetetlenségének biztosítására és a dezinformáció káros hatásaival szembeni védelemre.

Megosztás Facebookon