Az AI kibontakozóban lévő képességeinek újragondolása: Délibáb vagy valóság?

A Stanford Egyetem kutatói azt állítják, hogy az AI úgynevezett kibontakozó képességei délibábnak tűnnek, ami kétségbe vonja a lehetséges kockázatokról és előnyökről szóló korábbi állításokat.

A mesterséges intelligencia fejlődése aggodalmakat keltett a potenciális veszélyeivel kapcsolatban, a szakértők pedig az ilyen technológiák által jelentett kockázatokra figyelmeztetnek. Ryan Schaeffer, Brando Miranda és Sanmi Koyejo, a Stanford Egyetem munkatársai azonban egy nemrégiben megjelent tanulmányukban azt állítják, hogy a mesterséges intelligencia kibontakozó képességei csupán "délibáb".

Az kibontakozó képességek olyan újszerű képességekre utalnak, amelyek a kisebb léptékű nyelvi modellekben hiányoznak, de a nagyobb léptékűekben megnyilvánulnak. Ezek a képességek hirtelen és kiszámíthatatlanul jelennek meg, gyakran váratlan modellméretekben. A nyelvi modellek kibontakozó képességeinek példái közé tartozik a jobb teljesítmény bizonyos természetes nyelvfeldolgozási feladatokban, például a nyelvi fordításban vagy a kérdésmegoldásban. A legújabb tanulmányok azonban azt sugallják, hogy ezen képességeknek a megjelenése a modell viselkedésében bekövetkező eredendő változás helyett a kutató által választott metrikából eredhet.

Ezeknek a képességeknek a megjelenése azért aggasztja a szakértőket, mert megkérdőjelezi a gépi tanulási modellek működésével és korlátaival kapcsolatos ismereteinket. Ez kérdéseket vet fel a gépi tanulási modellek biztonságával és megbízhatóságával, valamint a különböző alkalmazásokban való alkalmazásuk etikai vonatkozásaival kapcsolatban. Ryan Schaeffer csapata azonban azzal érvel, hogy a mesterséges intelligenciában megjelenő képességekre vonatkozó állítások valószínűleg a kutatók elemzései által előidézett délibábok lehetnek.

A kutatók azt állítják, hogy amikor az eredményeket nem lineáris vagy nem folytonos mérőszámokban jelentik meg, akkor úgy tűnik, hogy azok éles, kiszámíthatatlan változásokat mutatnak, amelyeket tévesen értelmeznek a kibontakozó viselkedés mutatóiként. Az azonos adatok lineáris metrikával történő mérésének alternatív módja "sima, folyamatos" változásokat mutat, amelyek az előbbi méréssel ellentétben kiszámítható – nem kibontakozó – viselkedést mutatnak. A kutatók szerint alternatív magyarázatuk arra utal, hogy a képességek nyelvi modellekben való megjelenése nem a modell viselkedésében bekövetkezett alapvető változásnak köszönhető, hanem inkább a kutató elemzési választásának eredménye.

A kutatók megállapításainak fő tanulsága az, hogy a nyelvi modellekben a képességek megjelenése nem biztos, hogy olyan újszerű, mint korábban gondolták és inkább a kutató elemzési választásának, mint a modell viselkedésében bekövetkező eredendő változásnak köszönhető. A kutatók azonban hangsúlyozták, hogy megállapításaik nem azt sugallják, hogy a nagy nyelvi modellek nem képesek kibontakozó képességek bemutatására, és a megfelelő módszertan feltárhatja ezeket a képességeket.

Összefoglalva, a stanfordi kutatók megállapításai értékes betekintést nyújtanak a jelenlegi kutatások korlátaiba és a szigorú módszertan fontosságába a mesterséges intelligencia képességeinek értékelésében.

Megosztás Facebookon