Az OpenAI áttörése: Az AI logikájának javítása a hallucinációk megelőzésére

Az OpenAI innovatív megközelítésének célja az AI-képzéssel kapcsolatban, hogy csökkentse az AI-modellek hamis információk előállítását és ezzel fokozza logikai működésüket.

Fejlett képességeik ellenére az AI-modellek, köztük az olyan jól ismert chatbotok, mint a ChatGPT és a Google Bard, nem immunisak a gyakran "hallucinációknak" nevezett hamis információk generálására. Ezt elismerve mind az OpenAI, mind a Google figyelmezteti a felhasználókat a chatrobotok válaszainak esetleges pontatlanságára. E pontatlanságok kérdése széles körben aggodalmat keltett a téves információk terjedésével és az ezzel járó káros hatásokkal kapcsolatban.

Ennek az aggodalomnak a kezelésére az OpenAI új kutatási eredményeket hozott nyilvánosságra, amelyek ígéretes megoldást sejtetnek. A vállalat kifejlesztett egy olyan mesterséges intelligencia modellt, amely képes összetett matematikai problémák megoldására egy új, "folyamatfelügyeletnek" nevezett módszer segítségével. Ez a módszer minden egyes lépéshez visszajelzést ad ahelyett, hogy csak a végeredményről adna visszajelzést, ez az úgynevezett „eredményfelügyelet”.

A folyamatfelügyeleti módszer hatékonyságát a MATH adathalmazon tesztelték, és az eredmények jelentős teljesítményjavulást mutattak. A folyamatfelügyelet a mesterséges intelligencia modelleket az ember által jóváhagyott eljárások elfogadására is ösztönözte, ami értelmezhetőbb érveléshez vezetett. Az OpenAI elismerte, hogy a folyamatfelügyelet hatékonysága matematikai kontextusokon kívül még nem bizonyított, de hangsúlyozta a további kutatások fontosságát más területeken is.

Megosztás Facebookon