Koppenhágai kutatók tanulmánya szerint az olyan AI-technológiák, mint a StyleGAN és a GPT-3 használata egyre nehezebbé tette a valódi és hamis közösségi médiaprofilok megkülönböztetését, ami jelentős következményekkel jár.
A meggyőző, hamisított közösségi médiaprofilok tömeges létrehozása egykor kihívást jelentő feladat volt, de az olyan mesterséges intelligencia technológiák, mint a StyleGAN és a GPT-3 gyors fejlődése miatt sokkal nehezebbé vált a valódi és a hamis fiókok közötti különbségtétel - derül ki a Copenhagen Business School kutatóinak tanulmányából. A tanulmány szerint a résztvevők nem tudtak különbséget tenni a valódi és a hamis Twitter-fiókok között egy, az ukrajnai háborúra összpontosító ál Twitter-hírfolyamban, sőt, a mesterséges intelligencia által generált profilokat még kevésbé tartották hamisnak, mint a valódiakat. "Korábban rengeteg munkát jelentett a valósághű hamis profilok létrehozása. Öt évvel ezelőtt az átlagfelhasználó nem rendelkezett olyan technológiával, amellyel ilyen léptékben és ilyen könnyedséggel tudott volna hamis profilokat létrehozni. Ma már nagyon könnyen hozzáférhető és sokak számára elérhető, nem csak kevesek számára" - mondja Raghava Rao Mukkamala társszerző. A mély tanulás által generált közösségi médiaprofilok elterjedése a kutatók szerint jelentős következményekkel jár a társadalomra és a demokrácia egészére nézve, beleértve a politikai manipulációt, a félretájékoztatást, az internetes zaklatást és a cyberbűnözést. A kutatás megállapította, hogy a tekintélyelvű kormányok elárasztják a közösségi médiát látszólag támogató emberekkel, hogy manipulálják az információkat. A kutatók új módszereket sürgetnek a mesterséges intelligencia által generált hamis közösségi médiaprofilok elterjedésével szemben, például automatikus felismerést, személyazonosság-ellenőrzést és egyéb biztosítékokat az ezeket a közösségi oldalakat üzemeltető vállalatok részéről. Azt is tanácsolják az embereknek, hogy csak olyan emberekben bízzanak a közösségi médiában, akiket tényleg ismernek.