2025.09.01. 20:02 Horváth Péter
Milliárdok ömlenek a generatív AI-ba, de a legtöbb vállalat mégsem lát belőle semmit. A klasszikus termékpriorizálási modellek, mint a RICE, egyszerűen alkalmatlanok arra, hogy megmérjék az AI valódi kockázatait és lehetőségeit.

Az MIT State of AI in Business 2025
felmérése szerint a vállalatok 30–40 milliárd dollárt öntöttek a generatív AI-projektekbe, de 95%-uk semmiféle mérhető megtérülést nem látott. Csupán 5% tudta átlépni azt, amit a kutatók „gen AI Divide”-nak neveznek.
Más tanulmányok is ugyanezt erősítik meg: a Qlik és az ESG szerint a cégek 94%-a fokozza az AI-befektetéseit, de mindössze 21% tudott érdemben működő megoldást élesíteni. Az Informatica CDO Insights riportja pedig kiemeli: a fő okok a gyenge adatminőség, a szervezeti éretlenség és a technológiai felkészületlenség.
A kudarc tehát nem az ambíció hiánya, hanem az, hogy a hagyományos menedzsment-keretek képtelenek kezelni az AI komplexitását: az adat- és modellérettséget, az emberi elvárásokkal való összehangolást, a dinamikus irányítást.
Miért buknak el az olyan régi keretrendszerek, mint a RICE
Az egyik legszélesebb körben használt prioritizálási modell a termékmenedzsmentben a RICE, amely az elérésen (Reach), hatáson (Impact), bizalmon (Confidence) és ráfordításon (Effort) alapul. Elegáns. Egyszerű. És elavult. Miért is?
- Reach: felhasználószámra épít, könnyen felülbecsülhető.
- Impact: a hatás gyakran szubjektív, AI esetében ráadásul függ a modell általánosításától és a humán döntéstámogatás minőségétől.
- Confidence: többnyire megérzésen alapul, ami AI-kockázatok mellett végzetes lehet.
- Effort: kódkomplexitást mér, de figyelmen kívül hagyja az adatgyűjtés, tisztítás, governance terheit.
Ahogy az Apple The Illusion of Thinking tanulmánya rávilágít: a jelenlegi nagy nyelvi modellek gyakran nem tudják általánosítani tudásukat, és kiszámíthatatlanul teljesítenek. Ha a modellek megbízhatatlanok, a RICE-féle keretek teljesen félrevisznek.
Amikor az ambíció ütközik a valósággal
Az Apple tanulmánya,
The Illusion of Thinking, kijózanító valóságképet mutat a jelenlegi nagy következtetési modellek (LRM-ek) korlátairól. A kutatás szerint ezek a modellek gyakran megbicsaklanak a komplexitásnál, nem tudnak túlterjeszkedni a tanítóadataikon, és még hasonló feladatokon is következetlenül viselkednek.
Tovább súlyosbítja a helyzetet, hogy egyre nagyobb a szakadék aközött, amit a vállalatok automatizálni szeretnének, és amit az AI reálisan kezelni tud. A Stanford 2025-ös tanulmányában a kutatók több mint 800 feladatot térképeztek fel több mint 100 munkakörben, és azt találták, hogy bár a dolgozók munkájuk közel felénél szívesen vennék az AI segítségét, a legtöbb AI-kezdeményezés rossz feladatokra irányul – vagy olyanokra, amelyeket a dolgozók nem akarnak automatizálni, vagy amelyek megoldására az AI-modellek még nem alkalmasak.
Bevezettek egy új fogalmat, a Human Agency Scale-t – amely a teljes emberi kontrolltól a teljes AI-autonómiáig terjed. A nyerő pont valahol a közepén van: ahol az AI segít, de nem helyettesít. Ez a finomság ritkán jelenik meg a terméktervezésben.
ARISE: AI-natív termékpriorizálás
A DocuSign szakértői egy új keretrendszert javasolnak: ARISE (AI Readiness and Impact-Scoring Evaluation). Ez a RICE továbbgondolt, AI-specifikus változata, amely három új dimenziót ad a klasszikus négy mellé:
- AI Desire – Van-e valódi hozzáadott értéke, hogy AI-val oldjuk meg? (1–5)
- AI Capability – Rendelkezésre állnak-e az adatok, elég érett-e a modell? (1–5)
- Intent Multiplier – Az AI asszisztál (1.0) vagy autonóm módon cselekszik (1.2)?
Az alapképlet így néz ki:
ARISE pontszám = (Reach × Impact × Confidence ÷ Effort) × AI Desire × AI Capability × Intent
A szorzás szándékos: ha gyenge az AI-képesség, a teljes pontszám összeomlik, bármilyen ígéretesnek is tűnik a projekt. Ez megakadályozza, hogy a vállalatok irreális, „laborban jól mutató” ötletekre pazarolják az erőforrásokat.
Miért számít az ARISE?
Az ARISE lényege nem a matematika, hanem a szemlélet.
- Kényszeríti a csapatokat, hogy szembenézzenek a valósággal.
- Segít elkerülni a „látványos, de skálázhatatlan” projektek csapdáját.
- Beemeli a humán-AI együttműködés, az adatminőség és a szervezeti felkészültség kérdését.
- Az AI nem egy újabb technológiai réteg, hanem másfajta építkezés: valószínűségi rendszerek, autonóm ügynökök és a nagy nyelvi modellek bizonytalansága. A RICE, ICE, MoSCoW jó szolgálatot tett a maga idejében, de a 2025-ös AI-korszakra nem elég.
Jól hangzik, bár nyilván üzletfejlesztők számára még rengeteg a kérdés a modellezést illetően. A tágabb B2B környezetben is érzékelhető, hogy a vállalatok már nem pusztán kísérleteznek. A McKinsey és az MIT friss adatai szerint a generatív AI-ra fordított összegek jelentősek, de a megtérülés késik: a legtöbb cég ma még inkább tanulja, hogyan tudja a technológiát a működésbe ágyazni.
A CIO-k egyre inkább nem külön innovációs költségként kezelik az AI-t, hanem beépítik a core IT és üzleti egységek büdzséjébe. A stratégiai szintre emelés jele, hogy sok helyen már Chief AI Officer vagy külön AI governance funkció alakult ki, miközben a befektetők is nyomást gyakorolnak a cégekre, hogy mutassanak fel kézzelfogható eredményeket.
Mi lesz a jövő?
A jövő trendjeit egyre inkább az autonóm, úgynevezett agentic AI határozza meg, amely képes komplex munkafolyamatokban önállóan lépni, de emberi felügyelettel. Ez nem csupán technológiai, hanem szervezeti átalakulást is igényel:
- új irányítási struktúrákat, biztonsági protokollokat
- és a dolgozók bevonását.
Az AI szerepe a felsővezetésben is nő: a döntéshozatalban egyre inkább stratégiai társként kezelik az algoritmusokat.
Mindez együtt arra mutat, hogy az AI-projektek jövője nem a gyors demókban, hanem a hosszú távú, fegyelmezett építkezésben rejlik. Az ARISE ehhez kínál egy olyan eszközt, amely képes összekapcsolni az ambíciót és a realitást, és amely mellett a vállalatok más, általánosabb prioritizálási kereteket is használhatnak. A következő években az lesz a siker kulcsa, hogy a cégek miként tudják a látványos kísérletekből valódi, skálázható és felelősségteljes üzleti megoldásokat faragni.