A mesterséges intelligencia ipar két vezető személyisége, Andrew Ng és Yann LeCun felszólalt a fejlett AI-rendszerek fejlesztésének javasolt szüneteltetése ellen.
Andrew Ng, a Deeplearning.AI alapítója és Yann LeCun, a Meta vezető mesterséges intelligencia kutatója egy pénteki online vitában a nagy teljesítményű mesterséges intelligencia rendszerek fejlesztésére javasolt szünet ellen érvelt. A YouTube-on megrendezett vitát több ezren látták, és a "Miért rossz ötlet a 6 hónapos AI-szünet" címet viselte. A vita során LeCun és Ng megkérdőjelezte a múlt hónapban több száz mesterséges intelligencia szakértő, technológiai vállalkozó és tudós által aláírt nyílt levelet, amelyben legalább hat hónapos moratóriumot követeltek a GPT-4-nél fejlettebb AI-rendszerek képzésére, egy olyan szöveggeneráló programra, amely szinte bármilyen kérdésre vagy témára képes valósághű és összefüggő válaszokat adni. Andrew Ng azzal kezdte, hogy ismertette a mesterséges intelligencia terén különösen az elmúlt néhány évben elért figyelemre méltó fejlődést, amelyet a mély tanulási technikák tettek lehetővé, és amelynek köszönhetően olyan generatív AI-rendszerek jöttek létre, mint a ChatGPT, az LLaMa, a Midjourney, a Stable Diffusion és a Dall-E, amelyek képesek valósághű szövegek, képek és hangok előállítására. Ezek a rendszerek új alkalmazásokhoz és lehetőségekhez fűzött reményeket, valamint aggodalmakat ébresztettek a lehetséges ártalmakkal és kockázatokkal kapcsolatban. Yann LeCun hozzátette, hogy az aggodalmak egy része a jelenhez és a közeljövőhöz kapcsolódik, mint például a méltányosság, az elfogultság és a társadalmi-gazdasági kiszorulás, míg mások inkább spekulatívak és távoliak, mint például a mesterséges általános intelligencia (AGI) megjelenése és annak lehetséges rosszindulatú vagy nem szándékolt következményei. Bár LeCun egyetértett azzal, hogy vannak valós potenciális károk és veszélyek, amelyekkel foglalkozni kell, bírálta a képzelőerő hiányát abban az értelemben, hogy a jövőbeli AI-rendszereket nem ugyanolyan tervezet alapján építikik majd, mint a jelenlegi fejlődésben visszafelé haladó LLM-eket, mint a ChatGPT és a GPT-4, vagy az előttük lévő más rendszereket, mint a Galactica vagy a Bard. LeCun úgy véli, hogy lesznek olyan új ötletek, amelyek sokkal jobban irányíthatóvá teszik majd ezeket a rendszereket. Az online eseményre egy növekvő vita közepette került sor, amely arról szólt, hogyan szabályozzák az új LLM-eket, amelyek szinte bármilyen témában képesek valósághű szövegeket előállítani. Ezek a mély tanuláson alapuló és hatalmas mennyiségű online adaton betanított modellek aggodalmat keltettek a visszaélések és károkozás lehetőségével kapcsolatban. A vita három héttel ezelőtt eszkalálódott, amikor az OpenAI kiadta a GPT-4-et, a legújabb és legerősebb modelljét. Andrew Ng és Yann LeCun egyetértett abban, hogy szükség van némi szabályozásra, de nem a kutatás és az innováció rovására. Azzal érveltek, hogy e modellek fejlesztésének vagy alkalmazásának szüneteltetése irreális és kontraproduktív. Emellett több együttműködést és átláthatóságot sürgetnek a kutatók, a kormányok és a vállalatok között, hogy biztosítsák e modellek etikus és felelős használatát. Yann LeCun hangsúlyozta, hogy a kutatás és fejlesztés késleltetésére való felhívás az elhomályosodás új hulláma, és hogy ez lelassítja a tudás és a tudomány fejlődését. Nem látja más értelmét a kutatás és fejlesztés szabályozásának, mint hogy csökkentse azt a tudást, amelyet a technológia jobbá és biztonságosabbá tételére használhatnánk. Ng ezzel szemben úgy véli, hogy bár a mesterséges intelligenciának vannak ártalmi kockázatai, például az elfogultság, a méltányosság és a hatalom koncentrációja, ugyanakkor óriási értéket is teremt. Szerinte a GPT-4-nél is jobb AI-rendszerek megalkotása minden alkalmazásnak és embernek segíteni fog.