A mestéséges intelligencia körüli viták rég túlnőttek a laborokon. Ma már a bíróságokon, a vállalati stratégiák mélyében és a szabályozói folyosókon dől el, milyen értékeket, világképet és társadalmi mintákat kódolnak azok a rendszerek, amelyekhez emberek százmilliói fordulnak nap mint nap.

Két friss fejlemény jelzi a kialakuló frontvonalakat: Elon Musk xAI-ja és az X pert indított az Apple és az OpenAI ellen feltételezett versenyellenes gyakorlatok miatt, miközben a Meta bejelentette, hogy „eltávolítaná az elfogultságot” az AI-modelljeiből – egy olyan cél, amely egyszerűnek hangzik, de mély következményekkel jár arra nézve, hogyan hat az AI a világunkra.
A „bias” kifejeztést gyakran fogjuk még hallani az ügy kapcsán, mi most eltekintünk a használatától, de az AI esetében olyan beépült eltérés vagy elfogultságot jelent, amely miatt a modell következetesen egy irányba tér el a semleges válaszoktól. Forrása lehet a tanítóadat, az emberi finomhangolás, a kulturális kontextus vagy a rendszerutasítás. A magyar szaknyelvben „torzításként”, „elfogultságként” vagy „rendszeres eltérésként” használjuk.
A kérdés tehát adott:
Lehet egyáltalán elfogulatlan mesterséges intelligenciát építeni, és ha nem, ki dönt arról, milyen irányba legyen „elfogult”?
Az AI terjedése ma már nem elszigetelt technológiai verseny, hanem a platformok fölötti kontroll kérdése. Elon Musk azért vitte bíróság elé az Apple és az OpenAI együttműködését, mert szerinte az iPhone-okba beépített, kizárólagos ChatGPT-integráció olyan előnyt ad a piacvezető modellnek, amelyből minden alternatíva kiszorul.
A tétet jól mutatják a számok:
Musk érvei szerint ez a megállapodás akadályozza a versenyt, ráadásul értékes felhasználói adatokat ad az OpenAI kezébe arról, hogyan használják az emberek az AI-t. A vita lényege itt nem csak az üzlet: a platformdöntések etikai következményekkel járnak, mert meghatározzák, milyen világmagyarázatot közvetít az AI.
A másik frontot nem bírósági perek, hanem ideológiai állítások alakítják. A Meta a Llama 4 bejelentésekor azt hangoztatta, hogy a nagy nyelvi modellek „történetileg balra húztak” bizonyos vitatott társadalmi kérdésekben, ezért új irányt szab: olyan modelleket épít, amelyek kevesebb előre programozott értéktorzítást hordoznak.
Ez azonban azonnal felveti a fő kérdést: ki dönti el, hogy mi számít torzításnak?
Több kutatás (Washingtoni Egyetem, Carnegie Mellon, Xi’an Jiaotong) azt állapította meg, hogy a korábbi Llama modellek sok esetben éppen jobbra húzó autoriter hangot ütöttek meg bizonyos kérdésekben. A Meta állítása tehát nem konszenzusos tény, hanem világértelmezés.
Mark Zuckerberg közben új víziót vázol: mindenki saját, személyes szuperintelligenciát használ majd, amely az ő értékeire reagál. Ez azonban új dilemmát nyit: ha minden felhasználó saját „értékbuborékra” hangolt AI-t kap, hogyan őrizhető meg egy közös, tényszerű normarendszer?
Az Apple vezérigazgatója teljesen más irányból közelíti meg a problémát. Tim Cook évek óta azt hangsúlyozza, hogy nem az a félelmetes, ha a gépek kezdenek úgy gondolkodni, mint az emberek. Szerinte az a veszély, hogy az emberek kezdenek úgy gondolkodni, mint a gépek: értékek, együttérzés, kontextus és következmények nélkül.
Ez a hozzáállás szemben áll a Meta és Musk azon állításával, hogy a modelleknek kevesebbet kell visszautasítaniuk és „cenzúrázatlanabbaknak” kell lenniük. Etikusok szerint éppen a visszautasítás jelenti a biztonságot.
A Meta büszkén jelentette be, hogy a Llama 4 a vitatott politikai és társadalmi kérdésekben a visszautasítási arányt 7%-ról 2% alá csökkentette. Szakértők (Allen Institute for AI) szerint ez azonban piggyes kompromisszum: az algoritmus így kevesebbet „véd”, és többet válaszol olyan témákban, ahol a károkozás esélye magas.
A mesterséges intelligencia torzításai – akárcsak az emberéi – nem egyetlen pontból erednek, hanem rétegekből:
A tévesen beállított ellensúlyozás pedig könnyen túlkompenzáláshoz vezethet. A Google Gemini gyakran kritizált, történelmileg pontatlan képgenerálása (például „diverz náci katonák”) éppen ilyen hibás torzításkezelés eredménye volt.
A torzítás nem javítható ki teljesen, amíg maga a kultúra, amelyből az adat származik, nem semleges.
A torzítás nem csak a chatbotok válaszait érinti. Az egyik legnagyobb társadalmi kockázat az AI-alapú toborzás, ahol a rendszer múltbeli minták alapján dönt arról, ki alkalmas és ki nem.
Ha egy vállalat korábban főként férfi mérnököket vett fel, az algoritmus ezt megtanulja, és a női jelölteket automatikusan hátrább sorolja. Ez nem politikai elfogultság – hanem tényleges diszkrimináció, gyakran észrevétlenül.
A munkaerő-felvételi törvények azonban nem erre az esetre készültek. Az AI döntéshozatala átláthatatlan, így felmerül:
A GLAAD friss jelzése szerint a Llama 4 bizonyos kérdésekre olyan válaszokat ad, amelyek hiteltelenített konverziós terápiát említenek – olyat, amelyet minden vezető orvosi szervezet elutasított, és amelyet az ENSZ „kínzáshoz” hasonlított.
Ez jól mutatja az AI-torzítás egyik legfontosabb dilemmáját: nem minden vita kétoldalú, és nem minden kérdésben létezik legitim alternatív álláspont. Ha egy modellel azt sugalljuk, hogy az áltudomány „épp annyira vita tárgya”, mint a bizonyított orvosi konszenzus, akkor nem torzítást távolítunk el, hanem új torzítást hozunk létre.
A globális szabályozás még csak most keresi a saját eszközeit. Az EU AI Act az első átfogó kísérlet az AI átláthatóságára és elszámoltathatóságára, külön kategóriát létrehozva a „magas kockázatú” alkalmazásokra, például a HR-rendszerekre.
Tim Cook szerint a Big Tech világszerte intenzív vizsgálat alatt áll, és a szabályozás sok helyen még nem tudja pontosan, milyen keretekkel lehet úgy beavatkozni, hogy az ne rontsa a felhasználói élményt és a biztonságot.
A következő években nem az lesz a kérdés, lesz-e torzítás az AI-ban, hanem az:
kinek a torzítása érvényesül, és ki dönt erről?