Open-weight AI-modellek új generációja érkezett, amely nemcsak erőteljes, de költséghatékony, biztonságos és végre valóban elérhető lehet a hétköznapi fejlesztők és kisebb cégek számára is.
A nyílt forráskódú AI-modellek világa hosszú ideje várta az áttörést, amely egyesíti a csúcsteljesítményt, a könnyű futtathatóságot és az átláthatóságot. Most megtört a jég: bemutatkoztak a gpt-oss-120b és gpt-oss-20b modellek, amelyek az OpenAI legfejlettebb módszerein alapulnak, mégis bárki számára elérhetők az Apache 2.0 licenc alatt.
Mit tudnak ezek a modellek?
A két modell a paramétereik száma szerint különbözik: a gpt-oss-120b 117 milliárd paraméteres, míg a kisebb gpt-oss-20b „csak” 21 milliárdos. Mégis, az igazi erősségük a hatékonyságuk és az alkalmazkodóképességük. A gpt-oss-120b: közel azonos teljesítményt nyújt, mint az OpenAI o4-mini modell, de fut egyetlen 80 GB-os GPU-n is.
gpt-oss-20b: a meglepően kompakt modell 16 GB memórián is elboldogul, így tökéletes mobileszközökre, on-device futtatásra vagy alacsony költségű lokális inferenciára.
A legtöbb nyílt modell eddig nem közelítette meg a zárt modellek, például a GPT-4 teljesítményét, különösen összetett feladatoknál, például:
A gpt-oss modellek viszont ezeken a területeken kivételesen jól teljesítenek – sőt, több esetben le is körözik a GPT‑4o-t vagy az OpenAI o3-széria modelljeit.
A modellek Transformer-alapúak, és a következő technológiákat ötvözik:
Ezek a kombinációk lehetővé teszik, hogy a modellek alacsonyabb memóriaigény mellett is kiválóan működjenek, még hosszú feladatok során is.
A gpt-oss modellek fejlesztői a nyílt modellek kapcsán szigorúbb biztonsági követelményeket alkalmaztak. Egy kifejezetten ellenőrző célra finomhangolt változatot is értékeltek a saját Preparedness Framework szerint, így:
A modellek kompatibilisek a Responses API-val, támogatják az agentic workflow-kat, többféle reasoning-effort szint választható, a válaszokat pedig akár strukturált formátumban is vissza lehet kapni. Emellett:
A gpt-oss-120b és gpt-oss-20b modellek valódi áttörést jelentenek az open-weight nyelvi modellek világában. A teljesítmény, hatékonyság, skálázhatóság és biztonság együttállása lehetővé teszi, hogy a fejlesztők és vállalatok saját infrastruktúrán futtathassanak versenyképes AI-megoldásokat – a zárt modellek korlátozásai nélkül.