A Meta bemutatta az I-JEPA nevű újszerű gépi tanulási modellt, amelyet arra terveztek, hogy ön-felügyelt tanulással komplex fogalmakat ragadjon meg képekből, megnyitva ezzel az utat a hatékonyabb AI-rendszerek felé.
A Meta jelentős lépést tett Yann LeCun víziójának megvalósítása felé, olyan mély tanulási rendszerekről, amelyek képesek megtanulni a világmodelleket az emberi segítség nélkül, az I-JEPA nevű innovatív gépi tanulási modelljének bemutatásával. Ez a modell ön-felügyelt tanulást alkalmaz a világ absztrakt kifejeződéseinek megragadására, elsősorban képelemzéssel. Az első értékelések szerint az I-JEPA kiváló teljesítményt nyújt különböző számítógépes látási feladatokban és hatékonyságban, felülmúlja a többi csúcsmodellt azzal, hogy a számítási erőforrások csak töredékét használja fel a képzéshez. A képzési kódot és modellt a Meta nyílt forráskóddal bocsátotta rendelkezésre, és a közelgő Conference on Computer Vision and Pattern Recognition (CVPR) konferencián mutatják be. Az ön-felügyelt tanulás az emberek és állatok megfigyelésen keresztül történő tanulására építve olyan paradigmát kínál, amelyben a mesterséges intelligencia rendszerek a nyers adatokon keresztül gyűjthetnek tudást, így nincs szükség az ember által biztosított képzési adatok címkézésére. Ez a megközelítés forradalmasította a mesterséges intelligencia egyes területeit, különösen a nagy nyelvi modelleket és a generatív modelleket. 2022-ben Yann LeCun bemutatta a "közös prediktív beágyazási architektúrát" (JEPA), egy egyedülálló ön-felügyelt modellt, amely a hagyományos ön-felügyelt modellektől eltérően tanul meg magas szintű absztrakciókat és fontos információkat, például a józan észt. Az olyan generatív modellekkel ellentétben, mint a DALL-E és a GPT, amelyek a részletes előrejelzésekre összpontosítanak, a JEPA célja az átfogó absztrakciók, például a jelenet tartalmának és az objektumok közötti kapcsolatok megértése és előrejelzése. Ez a megközelítés kevesebb hibát, alacsonyabb számítási költségeket és a környezet rejtett terének mélyebb megértését eredményezi. A Meta kutatói úgy vélik, hogy a pixelértékek helyett a magas szintű absztrakciók közvetlen előrejelzése megkerüli a generatív megközelítésekben rejlő korlátokat. Az I-JEPA a Yann LeCun által javasolt struktúra képközpontú megvalósítása. A hiányzó információt absztrakt előrejelzési célok segítségével különbözteti meg, kiküszöbölve a felesleges pixel-szintű részleteket, és jelentéstanilag gazdagabb jellemzőtanuláshoz vezet. Az I-JEPA egy látástranszformátort (ViT) használ az információ kódolására, amelyet aztán egy prediktív ViT-hez továbbít, hogy jelentéstani reprezentációkat hozzon létre a hiányzó részekre. A gyakorlatban ez jelentős előrelépést jelenthet olyan ágazatokban, mint a robotika és az autonóm járművek, ahol a mesterséges intelligenciának meg kell értenie a környezetét, és több lehetséges eredményt is kell kezelnie. A kiváló teljesítmény mellett az I-JEPA a hatékonyság terén is kiemelkedik, mivel lényegesen kevesebb memóriát és számítást igényel. Az előtanulmányozási fázis nélkülözi a más ön-felügyelt tanulási módszerekre jellemző erőforrás-igényes adatnövelési technikákat. A modell sokkal kevesebb finomhangolást igényel ahhoz, hogy felülmúlja a többi csúcskategóriás modellt az olyan számítógépes látási feladatokban, mint az osztályozás, az objektumszámlálás és a mélységbecslés. A bőséges címkézetlen internetes adatok korában az I-JEPA-hoz hasonló modellek kulcsfontosságúak lehetnek olyan alkalmazások számára, amelyekhez korábban hatalmas mennyiségű kézzel címkézett adatra volt szükség.