Az OpenAI új szöveggeneráló modellje, a GPT-4 jelentős javulást ért el néhány területen, például a számtan és a jog területén, de még mindig szenved az érvelési hibáktól és a tények hallucinációitól.
Az OpenAI nemrég mutatta be legújabb szöveggeneráló mesterséges intelligencia modelljét, a GPT-4-et, amely új funkciókkal és képességekkel javulást mutat elődjéhez, a GPT-3-hoz képest. Ezek közé tartozik a multimodális képessége, amellyel mostantól képes megérteni a képeket, és feliratokat vagy leírásokat adni a fényképek tartalmáról. A GPT-4 azt is lehetővé teszi a fejlesztők számára, hogy könnyebben meghatározzák stílusát és viselkedését, miközben pontosabb kijelentéseket ad. Azonban a GPT-3-hoz hasonlóan a GPT-4 is produkál hibákat és bizonyos esetekben még mindig hallucinál a tényekről. Greg Brockman, az OpenAI társalapítója és elnöke elismeri, hogy a GPT-4 fejlesztési ciklusának és képességeinek vannak korlátai a GPT-3-hoz képest. Azt is megjegyzi, hogy a GPT-4 képességei bizonyos területeken, például a számtan és a jog területén a nagyon rosszról egészen jóra javultak az emberekhez képest. A GPT-4 például az AP Calculus BC vizsgán 5-ből 4 pontot ért el, szemben a GPT-3 1 pontjával. Ezenfelül a GPT-4 egy szimulált ügyvédi vizsgán pontszáma a felső 10% -ban volt, míg a GPT-3.5 az alsó 10% -ban teljesített. A GPT-4 egyik legérdekesebb tulajdonsága a multimodalitás, amely lehetővé teszi, hogy szöveges és képi utasításokat fogadjon el, ellentétben a GPT-3 és GPT-3.5 rendszerekkel, amelyek csak szöveges utasításokat fogadnak el. Greg Brockman hangsúlyozza, hogy a GPT-4 képzési adatai "különféle licencelt, létrehozott és nyilvánosan elérhető adatforrásból származnak, amelyek nyilvánosan elérhető személyes információkat is tartalmazhatnak". A GPT-4 képelemző képességei lenyűgözőek, amint azt a látássérülteknek szánt Be My Eyes segédalkalmazás is bizonyítja. Azonban, hogy a szélesebb körű bevezetés "szándékosan lassú" lesz, mivel az OpenAI értékeli a kockázatokat és az előnyöket, és foglalkozik a DALL-E 2-höz, az OpenAI szöveg-képrendszeréhez hasonló etikai dilemmákkal. Az OpenAI tartalomszűrői nem mindig hatékonyak a GPT-4 nem szándékos, kárt okozó felhasználásának megakadályozásában. Az izraeli kiberbiztonsági startup, az Adversa AI nemrégiben bemutatta azokat a módszereket, amelyekkel meg lehet kerülni ezeket a tartalomszűrőket adathalász e-mailek, melegekről szóló sértő leírások és egyéb kifogásolható szövegek generálásával. Ezek a kockázatok hangsúlyozzák az elővigyázatosság szükségességét, valamint megfelelő etikai normák és irányelvek kidolgozását a mesterséges intelligencia használatának nem kívánt következményeinek megelőzése érdekében.