Az Arthur AI bemutatja az Arthur Shield-et: A tűzfal az AI-adatok védelmére

Az Arthur AI elindította az Arthur Shield-et, az AI-adatok tűzfalát, amely megakadályozza a nyelvi modellekkel kapcsolatos potenciális kockázatokat és a szabályzatok megsértését.

A hallucinációk, a magánadatok információszivárgásának és a jogszabályi megfelelés kockázatai miatt, amelyekkel a mesterséges intelligencia szembesül, egyre több szakértő és gyártó mondja, hogy egyértelműen szükség van valamilyen védelemre. Az egyik ilyen szervezet, amely most az AI-adatkockázatok elleni védelmet szolgáló technológiát épít, a New York-i székhelyű Arthur AI. A 2018-ban alapított vállalat eddig több mint 60 millió dollárt gyűjtött össze, nagyrészt a gépi tanulás megfigyelési és megfigyelhetőségi technológiájának finanszírozására.

Az Arthur AI most egy lépéssel továbbviszi a mesterséges intelligencia megfigyelhetőségét az Arthur Shield elindításával, amely lényegében egy tűzfal az AI-adatok számára. Az Arthur Shield segítségével a szervezetek tűzfalat telepíthetnek, amely a nagy nyelvi modellek (LLM) elé kerül, hogy ellenőrizze a be- és kimenő adatokat a potenciális kockázatok és szabályszegések szempontjából.

"Számos támadási vektor és potenciális probléma, például adatszivárgás van, amelyek óriási problémát és gátat jelentenek az LLM-ek tényleges telepítése során" – mondta Adam Wenchel, az Arthur AI társalapítója és vezérigazgatója. "Vannak olyan ügyfeleink, akik alapvetően mindent megtesznek azért, hogy LLM-eket telepítsenek, de jelenleg elakadtak és ezt a terméket fogják használni, hogy kiszabaduljanak ebből a helyzetből".

A generatív AI potenciálisan kockázatos kimenete elleni védelem biztosításának kihívását több gyártó is megpróbálja megoldani. Az Nvidia nemrégiben jelentette be NeMo Guardrails technológiáját, amely egy olyan házirendnyelvet biztosít, amely segít megvédeni az LLM-eket az érzékeny adatok kiszivárgásától vagy a hibás válaszok hallucinálásától.

Az Arthur AI ezzel szemben az Arthur Shield-del igyekszik megkülönböztetni magát azáltal, hogy kifejezetten a szervezetek számára kifejlesztett eszközt kínál a valós támadások megelőzésére. A technológia az Arthur ML monitorozási platformjából származó megfigyelhetőséget is kihasználja, hogy folyamatos visszacsatolási hurkot biztosítson a tűzfal hatékonyságának javítása érdekében.

Az Arthur Shield egy sor előre elkészített szűrőt biztosít, amelyek folyamatosan tanulnak és testre is szabhatók. Ezeket a szűrőket úgy tervezték, hogy megakadályozzák az ismert kockázatok – például a potenciálisan érzékeny vagy mérgező adatok – LLM-be történő bevitelét vagy kimenetét.

"Nagyszerű kutatási részlegünk van, és valóban úttörő munkát végeztek az LLM-ek alkalmazása terén az LLM-ek kimenetének értékelésére" – mondta Adam Wenchel. "Ha az alaprendszer kifinomultságát növeli, akkor a hozzá tartozó nyomon követés kifinomultságát is fel kell fejlesztenie."

Az Arthur AI a nevét Arthur Samuel előtt tisztelegve kapta, akinek 1959-ben nagyrészt a "gépi tanulás" kifejezés megalkotását és a legkorábbi modellek kifejlesztését köszönhetjük. Az Arthur AI ügyfelei között szerepel az öt legnagyobb amerikai bank közül három, a Humana, a John Deere és az Egyesült Államok Védelmi Minisztériuma.

A hálózati világban a tűzfal egy bevált technológia, amely a hálózatba érkező és onnan kimenő adatcsomagokat szűri. Az Arthur Shield a szervezeteknek egy további biztonsági réteget biztosít, amely segít megelőzni az adatszivárgást és védelmet nyújt a generatív AI potenciálisan kockázatos kimenetei ellen.

Megosztás Facebookon