Az AI szakértői figyelmeztetést adtak ki az adatmérgezéses támadásokkal kapcsolatban, amelyek veszélyeztethetik a gépi tanulási modellek betanításához általánosan használt nagy adathalmazokat.
A mesterséges intelligencia és a gépi tanulás szakértői figyelmeztettek az adatmérgezéses támadások veszélyére, amelyek a számos AI-szolgáltatásban a mély tanulási modellek betanításához általánosan használt nagy adathalmazok ellen működhetnek. A támadók manipulálják a mély tanulási modelleket létrehozó képzési adatokat, így nehezen nyomon követhető módon befolyásolhatják a mesterséges intelligencia által hozott döntéseket. Ez a manipuláció azt jelenti, hogy az AI helytelen adatokból tanul, és "rossz" döntéseket hozhat, aminek jelentős következményei lehetnek. A Google, az NVIDIA, az ETH Zürich és a Robust Intelligence kutatói bemutatták a mérgező támadások lehetőségét, amelyek "garantálják", hogy rosszindulatú példák jelennek meg a legnagyobb gépi tanulási modellek betanítására használt webes méretű adathalmazokban. A kutatók az általuk kidolgozott technikákkal kihasználták az adathalmazok működési módját, és kis erőfeszítéssel és alacsony költséggel meg tudták mérgezni a kiemelkedő mély tanulási adathalmazok 0,01%-át. A támadás "split-view poisoning" néven ismert, és ha egy támadó át tudná venni az irányítást egy adott adatkészlet által indexelt webes erőforrás felett, akkor megmérgezhetné az összegyűjtött adatokat, ami pontatlanná tenné azokat, és negatívan befolyásolná az egész algoritmust. Van egy második típusú támadás is, amelyet a kutatók front-running poisoningnak neveztek el. Ebben az esetben a támadónak nincs teljes ellenőrzése az adott adatkészlet felett, de képes pontosan megjósolni, hogy mikor lesz elérhető egy webes erőforrás, hogy bekerüljön az adatkészlet pillanatfelvételébe. Ezzel a tudással a támadó közvetlenül az információgyűjtés előtt megmérgezheti az adathalmazt. Az egyik erőforrás, amelyre nagymértékben támaszkodnak a gépi tanulással kapcsolatos képzési adatok beszerzéséhez, a Wikipedia, és egy támadó "rosszindulatú szerkesztésekkel megmérgezheti a Wikipédiából származó képzési készletet". A támadók rosszindulatúan szerkeszthetik az oldalt, és arra kényszeríthetik a modellt, hogy pontatlan adatokat gyűjtsön, amelyek tartósan tárolódnak az adatkészletben. A kutatók megjegyzik, hogy nem szerkesztettek élő Wikipédia-oldalakat, és a felelős nyilvánosságra hozatali folyamat részeként értesítették a Wikipédiát a támadásokról és az ellenük való védekezés lehetséges eszközeiről. A kutatók arra biztatnak másokat is a biztonsági területen, hogy folytassák kutatásukat a mesterséges intelligencia és a gépi tanulással működő rendszerek védelmének módjával kapcsolatban.