Az egyik legnagyobb AI-szakértő szerint baromság, hogy az AI jelenleg intelligens lenne

Yann LeCun szerint súlyosan félreértjük az AI jelenét – és ha nem váltunk irányt, a fejlődés elakad.

A mesterséges intelligenciáról ma már nehéz úgy beszélni, hogy ne jelenjen meg benne a szuperintelligencia, az AGI vagy a technológiai áttörés gondolata. A narratíva azt sugallja, hogy a nagy nyelvi modellek már a küszöbön várakoznak, hogy átlépjék az emberi intelligenciát. Yann LeCun, a Meta vezető AI-kutatója szerint azonban ez a kép nemcsak téves, hanem félrevezető is.

Ha többet akarsz tudni, kövess minket Facebookon!

A Wall Street Journal által összegzett álláspontja alapján most pontosabban látjuk, miért gondolja ezt, és miért hangzik el tőle egyre határozottabban ugyanaz az üzenet: az AI jelenlegi formájában nem intelligens, és nem is lesz az, ha továbbra is ugyanazt a megközelítést próbáljuk skálázni.

„Elnézést kérek, de ez teljes baromság”

A cikk szerint LeCun akkor fogalmazott így, amikor arról kérdezték, a mai modellek a szuperintelligencia vagy az AGI előszobájában állnak-e. A válaszát sokszor idézték, de kevesen értették a teljes kontextust. A kutató nem egyszerűen túlzásnak tartja a szuperintelligencia-jóslatokat, hanem tényszerűen hibásnak.

Szerinte a jelenlegi modellek még egy alapvető érzékelési és világértelmezési szintet sem érnek el – azt a szintet, amelyet egy átlagos házimacska magabiztosan birtokol.

A macska látja a világot, felismeri a tárgyakat, megérti a mozgást, és hosszú távon is képes ok-okozati kapcsolatokat követni. A mai AI-modellek ezzel szemben szövegminták alapján próbálnak következtetni a valóság szerkezetére, ami LeCun szerint ugyanolyan, mintha egy könyvből próbálnánk megtanulni, hogyan működik a fizika, anélkül, hogy valaha látnánk egyetlen tárgyat is a térben.

A Meta kettőssége: az üzleti logika gyors eredményt vár, a kutatás mélyebb áttörést

A Meta belső működésében érzékelhető egy sajátos feszültség. A vállalat egyik fele – a termékcsapatok és a vezetés – a Google és az OpenAI tempójához igazodva szeretné minél gyorsabban piacra vinni a nagy modelleket, és minél több funkciót építeni a generatív AI köré. Ezzel szemben a kutatólabor azt állítja, hogy skálázással nem lehet eljutni az intelligenciáig, mert a jelenlegi architektúra egyszerűen nem alkalmas rá.

LeCun szerint az LLM-ek csupán egy félszemű megközelítései a gondolkodásnak: hiányzik belőlük a világ fizikai törvényeinek értelmezése, a következetes memória, a saját célrendszer és a környezetből való tanulás. Ezért sem értene egyet azzal, hogy a GPT-5, GPT-6 vagy bármelyik hasonló modell majd „átlöki” az iparágat az AGI irányába.

Mitől lenne valódi intelligens rendszer? 

A kutató egyértelműen kijelöli azt az irányt, amely szerinte valódi előrelépést hozhat. A jövő AI-ja akkor lesz több, mint nyelvi prediktor, ha:

  • érzékelésből tanul, nem csak szövegből,
  • hosszú távú, stabil memóriával rendelkezik,
  • ok-okozati következtetést alkalmaz, nem statisztikai mintákat.

Ez a megközelítés vezet a világmodellekhez, amelyek nem csak azt mondják meg, mi a következő valószínű szó, hanem azt is, milyen következménye van egy cselekvésnek vagy mozgásnak. Ez teljesen más filozófia, mint amire a jelenlegi nagy modellek épülnek.

A szuperintelligencia-narratíva kritikája: több marketing, mint tudomány

LeCun nem egyszerűen azért kritikus, mert nem látja a technikai alapot. Azért is, mert szerinte a szuperintelligenciára épített kommunikáció torzítja a közbeszédet, félrevezeti a befektetőket, és egy ponton akár az innovációt is visszafoghatja.

Érvelése három pillérre épül:

  • A fogalom sincs definiálva.
  • Mindenki másképp érti, keveredik a tudomány a fantáziával.
  • A technológiai alapok hiányoznak.

A világmodellek, hosszú távú memória és ok-okozati rendszer még kutatási fázisban sincs ott, ahol ezt a narratívát indokolná.

LeCun szerint a túlzó félelmek könnyebben legitimálják a zárt, kontrollált AI-fejlesztést, amely hosszú távon koncentrálja a hatalmat. A kutató kevés dologban olyan határozott, mint abban, hogy az AI jövője nem lehet néhány vállalat kizárólagos tulajdona. A Meta ugyan sok konkurensénél nyitottabbnak mutatkozik, de LeCun ennél tovább menne: szerinte a kutatást nem csak megosztani, hanem demokratizálni kell.

A nyílt modellek szerinte:

  • gyorsítják a tudományt,
  • növelik az átláthatóságot,
  • szélesítik az innovációs bázist,
  • és csökkentik a vállalati túlhatalmat.

Ez nem könnyű üzenet egy olyan környezetben, ahol mindenki igyekszik megtalálni az AI-ból lehívható üzleti előnyt. LeCun azonban olyan következetességgel beszél erről, amely ritka a tech világában.

Hogyan néz ki a jövő LeCun szerint? 

A kutató nem gondolja, hogy a következő pár évben megjelenik egy hirtelen, átütő képességekkel bíró mesterséges intelligencia. Ehelyett egy olyan korszakot lát maga előtt, ahol:

  • a modellek elkezdik megtanulni a valóság törvényeit,
  • képesek lesznek önálló környezetértelmezésre,
  • és lassan kialakulnak az első olyan architektúrák, amelyek nem csak nyelvet kezelnek, hanem világot értenek.

Ez nem PR-barát vízió, de tudományosan sokkal megalapozottabb. És ami még fontosabb: ez az irány valóban képes lehet új szintre emelni az AI-t.

Yann LeCun nem azért meghatározó alakja az AI-világnak, mert mindenben igaza van, hanem azért, mert következetesen ugyanarra a problémára mutat rá: a jelenlegi modellek nem intelligensek, és a rendszer önmagát ismétli, ha a skálázásra próbáljuk ráerőltetni azt a szerepet, amelyhez teljesen másfajta gondolkodásra lenne szükség.

A kutató új irányt kér: olyan mesterséges intelligenciát, amely először megtanulja, mi történik egy pohárral, ha lelökjük az asztalról. Ha ez sikerül, minden más már „csak” algoritmus kérdése lesz.