A kutatók tesztelték az AI vízjeleket – és mindegyik sebezhető

Az AI-által generált hamisítás elleni küzdelem zűrzavaros, mivel a vízjelezés, amely egykor a digitális hitelesítés reménysugara volt, most váratlan sebezhetőségekkel küzd.

  • A jelenlegi AI-val előállított vízjel-technológiák megbízhatatlannak bizonyulnak, sok közülük könnyen kijátszható vagy manipulálható.

  • A nagy technológiai szereplők a félretájékoztatás elleni küzdelem érdekében vízjel-technológiába fektetnek be, de annak hatékonysága továbbra is megkérdőjelezhető.

  • Egyes szakértők úgy vélik, hogy bár nem bolondbiztos, a vízjelek továbbra is a megoldás részeként szolgálhatják, ha más technológiákkal és stratégiákkal együtt használják.

Soheil Feizi, a Marylandi Egyetem informatika professzora aggasztó képet fest az AI vízjelek jelenlegi helyzetéről. A lehetőségekkel kapcsolatos optimizmusa ellenére kijelenti, hogy „Jelenleg nincs megbízható vízjelünk”. Nemrégiben készült tanulmánya szerint a rossz szereplők nemcsak könnyen eltávolíthatják a vízjeleket, hanem tévesen hozzá is adhatják azokat az ember által készített képekhez, ami hamis pozitív eredményekhez vezet.

A vízjeleket ígéretes stratégiaként emlegetik az AI-által generált tartalmak azonosítására. A pénzeken és bélyegeken található fizikai vízjelekhez hasonlóan a digitális vízjelek célja az online képek és szövegek eredetének nyomon követése. Ez különösen fontos egy olyan korban, amikor a manipulált média, például a deepfake videók befolyásolhatják a közvéleményt. A 2024-ben esedékes amerikai elnökválasztás tétje nagy. Az olyan esetek, mint Donald Trump volt amerikai elnök, aki megosztott egy mesterséges intelligenciával klónozott videót Anderson Cooperről, rávilágít a helyzet sürgősségére.

A nagy AI-vállalatok, köztük az OpenAI, az Alphabet és az Amazon ígéretet tettek arra, hogy vízjeles technológiát fejlesztenek ki a félretájékoztatás ellen. A Google DeepMind még vízjelző eszközének, a SynthID-nek a béta verzióját is kiadta, remélve, hogy az AI-által generált tartalmakat már a létrehozásukkor megjelölhetik. Ezeknek az eszközöknek a megbízhatósága azonban megkérdőjelezhető. Hany Farid, a UC Berkeley School of Information professzora rámutat, hogy a vízjelek sebezhetősége jól ismert. A Kaliforniai Egyetem és a Carnegie Mellon Egyetem egy másik tanulmánya tovább hangsúlyozza, hogy minden láthatatlan vízjel manipulálható.

E kihívások ellenére egyes szakértők továbbra is bizakodóak. Hany Farid elismeri a korlátokat, de úgy véli, hogy a robusztus vízjelek más technológiákkal kombinálva a megoldás részét képezhetik. Yuxin Wen, a Marylandi Egyetem doktorandusza úgy látja, hogy ez lehetőséget ad arra, hogy a vízjelekkel kapcsolatos elvárásainkat újrakalibráljuk. Tom Goldstein, az informatika professzora a kárcsökkentés eszközének tekinti, amely hatékony az alacsonyabb szintű mesterséges intelligencia manipulációk ellen, még ha nem is képes meghiúsítani a kifinomult támadásokat.

Az általános vélekedés azonban az óvatosság felé hajlik. A DeepMind a SynthID bejelentésekor elismerte, hogy az eszköz nem bolondbiztos. Soheil Feizi megkérdőjelezi, hogy az olyan óriások, mint a Google, milyen erőforrásokat fordítanak a vízjelek biztosítására és azt javasolja, hogy talán itt az ideje elfogadni az AI-által generált tartalmak megbízható megjelölésével kapcsolatos kihívásokat. A tanulmánya azonban kissé optimistán zárul és arra utal, hogy a robusztus vízjelek megtervezése nehéz feladat lehet, de nem teljesen elérhetetlen.

Megosztás Facebookon