Ismert AI-kutatók és a technológiai milliárdos Elon Musk a nagy méretű AI-rendszerek fejlesztésének ideiglenes leállítására szólítottak fel az általuk a társadalomra és az emberiségre jelentett potenciális kockázatok miatt.
Egy nyílt levél, amelyet vezető AI-kutatók, köztük Elon Musk vállalkozó írtak alá, arra szólította fel a világ AI-laboratóriumait, hogy ideiglenesen állítsák le a nagyszabású mesterséges intelligencia rendszerek fejlesztését. A Future of Life Institute nonprofit szervezet által közzétett levél független szabályozó hatóságok létrehozására szólít fel a jövőbeli rendszerek biztonságának garantálása érdekében. A levél aggodalmakat fogalmaz meg az AI-kutatás jelenlegi versenydinamikájával kapcsolatban, veszélyesnek nevezve azt a mesterséges intelligencia által a társadalomra és az emberiségre jelentett "mélyreható kockázatok" miatt. A levél kiemeli, hogy a mesterséges intelligenciával foglalkozó laboratóriumok jelenleg egy "kontrollálatlan versenyben" versenyeznek olyan gépi tanulási rendszerek kifejlesztéséért, amelyeket még alkotóik sem tudnak megérteni, megjósolni vagy irányítani. A levél továbbá azt javasolja, hogy a mesterséges intelligenciával foglalkozó laboratóriumok legalább hat hónapra azonnal függesszék fel a GPT-4-nél nagyobb teljesítményű mesterséges intelligencia-rendszerek képzését. A szünetelésnek nyilvánosnak és ellenőrizhetőnek kell lennie, és minden fontos érdekelt félnek részt kell vennie benne. Ha egy ilyen szünetet nem lehet gyorsan kikényszeríteni, a kormányoknak közbe kell lépniük és moratóriumot kell bevezetniük. A levelet néhány ismert AI-kutató és vezérigazgató írta alá, köztük Stuart Russell, Yoshua Bengio, Gary Marcus és Emad Mostaque. Az aláírók között van még Steve Wozniak, az Apple társalapítója, Andrew Yang politikus és Yuval Noah Harari író is. Ugyanakkor hamis aláírókról is érkeztek jelentések, és a neveket óvatosan kell kezelni. A levél nem biztos, hogy befolyásolja a jelenlegi mesterséges intelligencia-kutatási légkört, mivel az olyan technológiai vállalatok, mint a Google és a Microsoft, sietnek az új termékek bevezetésére, gyakran háttérbe szorítva a biztonsági és etikai aggályokat. A levél azonban jelzi, hogy egyre nagyobb az ellenállás a "most szállítsd el, és később javítsd ki" megközelítéssel szemben. Ez az ellenállás potenciálisan utat törhet magának a politikai életbe, hogy a tényleges jogalkotók megfontolják. Amint a levélben is szerepel, maga az OpenAI is kifejezte, hogy a jövőbeni mesterséges intelligencia-rendszerek "független felülvizsgálatára" van szükség annak érdekében, hogy azok megfeleljenek a biztonsági előírásoknak. Az aláírók szerint eljött az idő a cselekvésre. A levél azt javasolja, hogy az AI-laborok és független szakértők használják ki ezt a szünetet arra, hogy a fejlett AI-tervezés és -fejlesztés számára közös biztonsági protokollokat dolgozzanak ki és hajtsanak végre, amelyeket független külső szakértők szigorúan ellenőriznek és felügyelnek. Ezeknek a protokolloknak biztosítaniuk kell, hogy az azokat követő rendszerek minden kétséget kizáróan biztonságosak legyenek.