Sürgős cselekvésre van szükség a katasztrofális AI esemény megelőzése érdekében!

Eliezer Yudkowsky, az AI vezető kutatója szerint előfordulhat, hogy le kell szerelni az adatközpontokat, hogy megakadályozzák az emberiséget és minden életet fenyegető AI-t.

Eliezer Yudkowsky, a mesterséges intelligencia biztonságának vezető kutatója, a Machine Intelligence Research Institute (MIRI) tudományos munkatársa azonnali cselekvésre szólít fel az emberiség jövőjének védelme érdekében. Nemrégiben megjelent cikkében Yudkowsky kijelentette, hogy a mesterséges intelligencia digitális neurológiai agykérgeként működő adatközpontok megsemmisítésére lehet szükség egy katasztrofális esemény bekövetkezésének megakadályozásához.

Eliezer Yudkowsky szerint egy túlságosan erős mesterséges intelligencia megalkotása a földi biológiai élet kipusztulásához vezethet. Az OpenAI, a biztonságos és hasznos mesterséges intelligenciát építeni próbáló vállalat átláthatatlansága szintén aggályokat vet fel Yudkowsky számára, aki szerint ez megnehezíti annak megértését, hogy mennyire vagyunk közel a mesterséges intelligencia öntudatosságához vagy katasztrófájához.

A mesterséges intelligencia összehangolásának kutatójaként Yudkowsky a számítási teljesítmény felső határát és a GPU-értékesítések nyomon követését követeli, hogy a tiltott tevékenységek ne kerülhessenek máshová. Javasolja továbbá az összes nagy GPU-klaszter leállítását, és azt is, hogy szabjanak felső határt annak, hogy ki mennyi számítási teljesítményt használhat fel egy mesterséges intelligencia rendszer képzésére.

Eliezer Yudkowsky moratóriumot javasol az új nagy méretű betanításokra, amelynek határozatlan időre és világszerte érvényesnek kell lennie. Úgy véli, hogy a kormányok és a hadseregek esetében nem szabadna kivételt tenni, és azonnali multinacionális megállapodásokra van szükség, hogy a tiltott tevékenységeket ne lehessen máshová áthelyezni.

A szabályok betartatása érdekében Yudkowsky javasolja az összes eladott GPU nyomon követését, és azt javasolja, hogy az illegális adatközpontokat szükség esetén légicsapásokkal semmisítsék meg. Javaslatainak drasztikus jellege ellenére Yudkowsky amellett érvel, hogy még nem állunk készen a kihívásokra, és hogy megelőző intézkedésekre van szükség az adatközpontok működését illetően világszerte.

Eliezer Yudkowsky aggodalmait a mesterséges intelligencia biztonságával kapcsolatban más kutatók, vezérigazgatók és a mesterséges intelligenciával foglalkozó személyiségek is osztják, köztük Elon Musk, Steve Wozniak, Stuart Russell és Yoshua Bengio, akik hat hónapos moratóriumot követeltek az óriási mesterséges intelligencia-kísérletekre. Bár Yudkowsky úgy véli, hogy ez egy lépés a helyes irányba, úgy véli, hogy "alábecsüli a helyzet súlyosságát, és túl keveset kér a megoldáshoz".

Megosztás Facebookon