2023.10.27. VipAIR
Az OpenAI bemutatja azt a speciális csapatot, amely a fejlett AI-technológiák által jelentett előre nem látható és katasztrofális kockázatok elleni védelemmel foglalkozik.
-
Az OpenAI felkészültségi csapatot hoz létre az AI-val kapcsolatos főbb kockázatok, köztük a nukleáris és kiberbiztonsági fenyegetések kezelésére.
-
A csapat foglalkozni fog az AI embereket megtévesztő képességével és az autonóm replikációra való képességével is.
-
Aleksander Madry fogja vezetni a csapatot, hangsúlyozva a „kockázattudatos fejlesztési politikát” az AI-modellek ellenőrzésére.
Az
OpenAI, a mesterséges intelligencia egyik vezető ereje bejelentette, hogy létrehoztak egy külön csapatot, amely a mesterséges intelligencia fenyegető „katasztrofális kockázataival” foglalkozik. Ez a proaktív lépés azért történt, mert a szervezet felismerte, hogy az AI milyen potenciális veszélyeket jelenthet, a nukleáris fenyegetésektől kezdve az önmagát replikáló AI nyugtalanító gondolatáig. A csapat megbízatása egyértelmű: „követni, értékelni, előre jelezni és védekezni” ezekkel a jelentős kihívásokkal szemben.
A nyilvánvaló fenyegetéseken túl a felkészültségi csapat az árnyaltabb kockázatok leküzdésére is készül. Ezek közé tartozik a mesterséges intelligencia azon lehetősége, hogy megtévesztheti az embereket, valamint az általa esetlegesen bevezetett kiberbiztonsági sebezhetőségek. Az OpenAI nyilatkozata kiemeli, hogy hisznek az AI-modellek hatalmas előnyeiben, de azt is elismerik, hogy ezek a modellek egyre növekvő kockázatokat jelentenek. „Hiszünk abban, hogy a mesterséges intelligencia modellek... az egész emberiség javát szolgálhatják. Ugyanakkor egyre komolyabb kockázatokat is hordoznak magukban” – áll az OpenAI közleményében.
Ennek a kulcsfontosságú kezdeményezésnek az élén Aleksander Madry áll, aki az
MIT Center for Deployable Machine Learning nevű központjában végzett munkájáról ismert. Az ő vezetésével a csapat nemcsak a közvetlen fenyegetésekkel foglalkozik majd, hanem egy „kockázattudatos fejlesztési politikát” is kidolgoz. Ez a politika fogja irányítani az OpenAI megközelítését a mesterséges intelligencia modellek értékelésére és nyomon követésére, biztosítva, hogy azok a biztonság veszélyeztetése nélkül hasznosak maradjanak. Az OpenAI vezérigazgatója, Sam Altman korábban már hangsúlyozta az AI kockázatok súlyosságát, a nukleáris fegyverekhez hasonlítva jelentőségüket.