2023.07.24. VipAIR
A technológiai vezetők és a Fehér Ház önkéntes megállapodást kötöttek az AI biztonságos és felelős telepítésének biztosítása érdekében, ami jelentős lépést jelent az AI fejlesztésében.
-
Az OpenAI, a Google, a Microsoft, a Meta, az AWS, az Anthropic és az Inflection AI technológiai vezetői önkéntes megállapodást kötöttek a Fehér Házzal az AI biztonságos telepítését biztosító gyakorlatokról.
-
A megállapodás az első lépés az AI-ra vonatkozó szabályok kidolgozása és betartatása felé, a kormány további végrehajtási intézkedéseket és jogszabályokat tervez.
-
A technológiai vállalatok megállapodtak abban, hogy a nyilvános megjelenés előtt gondoskodnak a termékek biztonságáról, a rendszerek kiépítésekor a biztonságot helyezik előtérbe és olyan AI-rendszereket fejlesztenek ki, amelyek segítenek a társadalom legnagyobb kihívásainak megoldásában.
Az
OpenAI, a
Google, a
Microsoft, a
Meta, az
AWS, az
Anthropic és az
Inflection AI technológiai vezetői egy példátlan lépés keretében önkéntes megállapodásra jutottak a Fehér Házzal egy sor olyan gyakorlatról, amelyek biztosítják a mesterséges intelligencia biztonságos alkalmazását. Ez a mérföldkőnek számító megállapodás a felelős AI-gyakorlatok melletti elkötelezettséget jelenti, Joe Biden elnök pedig hangsúlyozta, hogy ezek a kötelezettségvállalások "valósak és konkrétak".
Ez a megállapodás csak a kiindulópontja egy szélesebb körű kezdeményezésnek, amely a mesterséges intelligenciára vonatkozó szabályok kidolgozására és betartatására irányul. A Fehér Ház tervezi, hogy folytatja a végrehajtó intézkedéseket és a jogalkotást annak érdekében, hogy a nyilvánosság számára telepített mesterséges intelligencia rendszerek biztonságosak és megbízhatóak legyenek. A technológiai vezetőkkel folytatott megbeszélések kiegészítik az olyan nemzetközi erőfeszítéseket, mint a G7-ek hirosimai folyamata, az Egyesült Királyság AI-biztonsági csúcstalálkozója és a globális AI-partnerség.
A technológiai vállalatok önkéntesen megállapodtak több kulcsfontosságú gyakorlatban. Ezek közé tartozik az AI-rendszereik belső és külső biztonsági tesztelésének elvégzése, mielőtt kiadják őket, a fenyegetések megelőzése érdekében a kiberbiztonságba való befektetés, valamint az AI-által generált tartalmak azonosítására szolgáló robusztus technikai mechanizmusok kifejlesztése. Kötelezettséget vállaltak arra is, hogy nyilvánosan beszámolnak a mesterséges intelligenciát alkalmazó rendszereik képességeiről, korlátairól, valamint a megfelelő és nem megfelelő felhasználási területekről.
Ez a megállapodás hangsúlyozza a mesterséges intelligencia biztonságának fontosságát és a technológiai vállalatok szerepét a felelős AI-gyakorlatok biztosításában. Mivel olyan korszakba lépünk, amelyben az AI egyre jelentősebb szerepet játszik a társadalomban, ez a megállapodás precedenst teremt a technológiai ipar és a kormányok számára világszerte. Egyértelmű jelzés, hogy a mesterséges intelligencia jövőjének a biztonság, a védelem és a bizalom alapjaira kell épülnie.