Az Egyesült Királyság kiemelt hozzáférést kap a DeepMind, az OpenAI és az Anthropic AI-modelljeikhez kutatási célokra

A prominens AI-vállalatok, a Google DeepMind, az OpenAI és az Anthropic ígéretet tettek arra, hogy korai vagy elsőbbségi hozzáférést biztosítanak az Egyesült Királyságnak az AI-modelljeikhez biztonsági kutatások céljából.

Az AI-technológiára vonatkozó szélesebb körű felügyeleti stratégia részeként az Egyesült Királyság kormánya a Google DeepMind, az OpenAI és az Anthropic iparági vezető vállalatok AI-modelljeit fogja megvizsgálni. Ezek a vállalatok kötelezettséget vállaltak arra, hogy biztonsági kutatási célokra korai vagy kedvezményes hozzáférést biztosítanak az Egyesült Királyság hatóságainak. Rishi Sunak, az Egyesült Királyság miniszterelnöke szerint ennek a hozzáférésnek az a célja, hogy javítsa e modellek ellenőrzését, lehetővé téve a kormány számára, hogy jobban megértse az ezzel járó lehetőségeket és kockázatokat.

A technológiai óriáscégek által az Egyesült Királyság hatóságaival megosztott adatok sajátosságai továbbra is bizonytalanok. Az ígéret azonban nem sokkal azután érkezett, hogy a brit kormány bejelentette, hogy felülvizsgálja az AI-modell elszámoltathatóságát, biztonságának, biztonságát, átláthatóságát és különféle etikai vonatkozásait. Az ország Verseny- és Piacfelügyeleti Hatósága várhatóan kulcsszerepet játszik majd ebben a folyamatban. Ezen intézkedésekkel párhuzamosan az Egyesült Királyság 100 millió font összegű kezdeti alapot különít el egy alapítványi modell munkacsoport létrehozására, amely a brit gazdaság fellendítését célzó "szuverén" mesterséges intelligencia fejlesztésére összpontosít, miközben az etikai és technikai kérdésekkel is foglalkozik.

Az OpenAI GPT-4-hez és az Anthropic Claude-hoz hasonló generatív AI modellekben rejlő hatalmas lehetőségek ellenére a szakértők és az iparág vezetői aggodalmakat fogalmaztak meg a biztonságukkal kapcsolatban. A kritikák a pontatlanságok, a lehetséges visszaélések és a félretájékoztatás terjedése körül forognak. Az Egyesült Királyság kezdeményezése ezeket a kockázatokat kívánja csökkenteni a problémás modellek korai szakaszban történő azonosításával és kezelésével. A kormány hozzáférése azonban nem garantálja e modellek és a mögöttes kódok teljes körű vizsgálatát és azt sem, hogy minden jelentős problémát azonosítanak. Mindazonáltal ez a lépés jelentős betekintést és nagyobb átláthatóságot eredményezhet a mesterséges intelligencia ágazatában egy olyan időszakban, amikor bizonytalan a hosszú távú hatása.

Megosztás Facebookon