Az OpenAI új csapatot alakít az AI katasztrofális kockázatainak felmérésére

Az OpenAI bemutatja azt a speciális csapatot, amely a fejlett AI-technológiák által jelentett előre nem látható és katasztrofális kockázatok elleni védelemmel foglalkozik.

  • Az OpenAI felkészültségi csapatot hoz létre az AI-val kapcsolatos főbb kockázatok, köztük a nukleáris és kiberbiztonsági fenyegetések kezelésére.

  • A csapat foglalkozni fog az AI embereket megtévesztő képességével és az autonóm replikációra való képességével is.

  • Aleksander Madry fogja vezetni a csapatot, hangsúlyozva a „kockázattudatos fejlesztési politikát” az AI-modellek ellenőrzésére.

Az OpenAI, a mesterséges intelligencia egyik vezető ereje bejelentette, hogy létrehoztak egy külön csapatot, amely a mesterséges intelligencia fenyegető „katasztrofális kockázataival” foglalkozik. Ez a proaktív lépés azért történt, mert a szervezet felismerte, hogy az AI milyen potenciális veszélyeket jelenthet, a nukleáris fenyegetésektől kezdve az önmagát replikáló AI nyugtalanító gondolatáig. A csapat megbízatása egyértelmű: „követni, értékelni, előre jelezni és védekezni” ezekkel a jelentős kihívásokkal szemben.

A nyilvánvaló fenyegetéseken túl a felkészültségi csapat az árnyaltabb kockázatok leküzdésére is készül. Ezek közé tartozik a mesterséges intelligencia azon lehetősége, hogy megtévesztheti az embereket, valamint az általa esetlegesen bevezetett kiberbiztonsági sebezhetőségek. Az OpenAI nyilatkozata kiemeli, hogy hisznek az AI-modellek hatalmas előnyeiben, de azt is elismerik, hogy ezek a modellek egyre növekvő kockázatokat jelentenek. „Hiszünk abban, hogy a mesterséges intelligencia modellek... az egész emberiség javát szolgálhatják. Ugyanakkor egyre komolyabb kockázatokat is hordoznak magukban” – áll az OpenAI közleményében.

Ennek a kulcsfontosságú kezdeményezésnek az élén Aleksander Madry áll, aki az MIT Center for Deployable Machine Learning nevű központjában végzett munkájáról ismert. Az ő vezetésével a csapat nemcsak a közvetlen fenyegetésekkel foglalkozik majd, hanem egy „kockázattudatos fejlesztési politikát” is kidolgoz. Ez a politika fogja irányítani az OpenAI megközelítését a mesterséges intelligencia modellek értékelésére és nyomon követésére, biztosítva, hogy azok a biztonság veszélyeztetése nélkül hasznosak maradjanak. Az OpenAI vezérigazgatója, Sam Altman korábban már hangsúlyozta az AI kockázatok súlyosságát, a nukleáris fegyverekhez hasonlítva jelentőségüket.

Megosztás Facebookon