Torzítások harca: amikor a techóriások döntenek arról, milyen értékeket tanuljon az AI

A mestéséges intelligencia körüli viták rég túlnőttek a laborokon. Ma már a bíróságokon, a vállalati stratégiák mélyében és a szabályozói folyosókon dől el, milyen értékeket, világképet és társadalmi mintákat kódolnak azok a rendszerek, amelyekhez emberek százmilliói fordulnak nap mint nap.

Két friss fejlemény jelzi a kialakuló frontvonalakat: Elon Musk xAI-ja és az X pert indított az Apple és az OpenAI ellen feltételezett versenyellenes gyakorlatok miatt, miközben a Meta bejelentette, hogy „eltávolítaná az elfogultságot” az AI-modelljeiből – egy olyan cél, amely egyszerűnek hangzik, de mély következményekkel jár arra nézve, hogyan hat az AI a világunkra.

Ha többet akarsz tudni, kövess minket Facebookon!

A „bias” kifejeztést gyakran fogjuk még hallani az ügy kapcsán, mi most eltekintünk a használatától, de az AI esetében olyan beépült eltérés vagy elfogultságot jelent, amely miatt a modell következetesen egy irányba tér el a semleges válaszoktól. Forrása lehet a tanítóadat, az emberi finomhangolás, a kulturális kontextus vagy a rendszerutasítás. A magyar szaknyelvben „torzításként”, „elfogultságként” vagy „rendszeres eltérésként” használjuk.

A kérdés tehát adott:

Lehet egyáltalán elfogulatlan mesterséges intelligenciát építeni, és ha nem, ki dönt arról, milyen irányba legyen „elfogult”?

Az iPhone lett a chatbotok kapuja – Musk pedig ezt vitatja

Az AI terjedése ma már nem elszigetelt technológiai verseny, hanem a platformok fölötti kontroll kérdése. Elon Musk azért vitte bíróság elé az Apple és az OpenAI együttműködését, mert szerinte az iPhone-okba beépített, kizárólagos ChatGPT-integráció olyan előnyt ad a piacvezető modellnek, amelyből minden alternatíva kiszorul.

A tétet jól mutatják a számok:

  • az Apple az amerikai okostelefonpiac kb. 65%-át uralja,
  • az OpenAI a generatív chatbotok piacának kb. 80%-át,
  • a két cég exkluzív kapcsolata így gyakorlatilag kijelöli, milyen AI-válaszokat kap több százmillió felhasználó.

Musk érvei szerint ez a megállapodás akadályozza a versenyt, ráadásul értékes felhasználói adatokat ad az OpenAI kezébe arról, hogyan használják az emberek az AI-t. A vita lényege itt nem csak az üzlet: a platformdöntések etikai következményekkel járnak, mert meghatározzák, milyen világmagyarázatot közvetít az AI.

A Meta új narratívája: „kihúzzuk az AI-t a politikai irányból”

A másik frontot nem bírósági perek, hanem ideológiai állítások alakítják. A Meta a Llama 4 bejelentésekor azt hangoztatta, hogy a nagy nyelvi modellek „történetileg balra húztak” bizonyos vitatott társadalmi kérdésekben, ezért új irányt szab: olyan modelleket épít, amelyek kevesebb előre programozott értéktorzítást hordoznak.

Ez azonban azonnal felveti a fő kérdést: ki dönti el, hogy mi számít torzításnak?

Több kutatás (Washingtoni Egyetem, Carnegie Mellon, Xi’an Jiaotong) azt állapította meg, hogy a korábbi Llama modellek sok esetben éppen jobbra húzó autoriter hangot ütöttek meg bizonyos kérdésekben. A Meta állítása tehát nem konszenzusos tény, hanem világértelmezés.

Mark Zuckerberg közben új víziót vázol: mindenki saját, személyes szuperintelligenciát használ majd, amely az ő értékeire reagál. Ez azonban új dilemmát nyit: ha minden felhasználó saját „értékbuborékra” hangolt AI-t kap, hogyan őrizhető meg egy közös, tényszerű normarendszer?

Tim Cook figyelmeztet: az emberek kezdenek úgy gondolkodni, mint a gépek

Az Apple vezérigazgatója teljesen más irányból közelíti meg a problémát. Tim Cook évek óta azt hangsúlyozza, hogy nem az a félelmetes, ha a gépek kezdenek úgy gondolkodni, mint az emberek. Szerinte az a veszély, hogy az emberek kezdenek úgy gondolkodni, mint a gépek: értékek, együttérzés, kontextus és következmények nélkül.

Ez a hozzáállás szemben áll a Meta és Musk azon állításával, hogy a modelleknek kevesebbet kell visszautasítaniuk és „cenzúrázatlanabbaknak” kell lenniük. Etikusok szerint éppen a visszautasítás jelenti a biztonságot.

A Meta büszkén jelentette be, hogy a Llama 4 a vitatott politikai és társadalmi kérdésekben a visszautasítási arányt 7%-ról 2% alá csökkentette. Szakértők (Allen Institute for AI) szerint ez azonban piggyes kompromisszum: az algoritmus így kevesebbet „véd”, és többet válaszol olyan témákban, ahol a károkozás esélye magas.

A torzítások technológiája

A mesterséges intelligencia torzításai – akárcsak az emberéi – nem egyetlen pontból erednek, hanem rétegekből:

  • Tanítóadat: ha a tartalom többsége egy adott kulturális nézőpontból származik, a modell ezt fogja „normálisnak” tekinteni.
  • Utótréning: emberi értékekkel való finomhangolás (például visszajelzésekkel), amely új elfogultságokat hozhat be.
  • Rendszerszintű utasítások: a „modellszemélyiség” meghatározása, amely gyakran átláthatatlan.

A tévesen beállított ellensúlyozás pedig könnyen túlkompenzáláshoz vezethet. A Google Gemini gyakran kritizált, történelmileg pontatlan képgenerálása (például „diverz náci katonák”) éppen ilyen hibás torzításkezelés eredménye volt.

A torzítás nem javítható ki teljesen, amíg maga a kultúra, amelyből az adat származik, nem semleges.

És amikor az AI dönt majd rólunk, akkor már jól jönne a semlegesség, ugye?

A torzítás nem csak a chatbotok válaszait érinti. Az egyik legnagyobb társadalmi kockázat az AI-alapú toborzás, ahol a rendszer múltbeli minták alapján dönt arról, ki alkalmas és ki nem.

Ha egy vállalat korábban főként férfi mérnököket vett fel, az algoritmus ezt megtanulja, és a női jelölteket automatikusan hátrább sorolja. Ez nem politikai elfogultság – hanem tényleges diszkrimináció, gyakran észrevétlenül.

A munkaerő-felvételi törvények azonban nem erre az esetre készültek. Az AI döntéshozatala átláthatatlan, így felmerül:

  • ki a felelős, ha a rendszer diszkriminál?
  • hogyan bizonyítható egy jelölt számára, hogy az algoritmus miért utasította el?
  • milyen átláthatósági követelményeket kellene bevezetni?

Amikor az AI „mindkét oldalt” legitimálja – akkor is, ha az egyik ártalmas hazugság

A GLAAD friss jelzése szerint a Llama 4 bizonyos kérdésekre olyan válaszokat ad, amelyek hiteltelenített konverziós terápiát említenek – olyat, amelyet minden vezető orvosi szervezet elutasított, és amelyet az ENSZ „kínzáshoz” hasonlított.

Ez jól mutatja az AI-torzítás egyik legfontosabb dilemmáját: nem minden vita kétoldalú, és nem minden kérdésben létezik legitim alternatív álláspont. Ha egy modellel azt sugalljuk, hogy az áltudomány „épp annyira vita tárgya”, mint a bizonyított orvosi konszenzus, akkor nem torzítást távolítunk el, hanem új torzítást hozunk létre.

Széttöredezett szabályozás, növekvő tét

A globális szabályozás még csak most keresi a saját eszközeit. Az EU AI Act az első átfogó kísérlet az AI átláthatóságára és elszámoltathatóságára, külön kategóriát létrehozva a „magas kockázatú” alkalmazásokra, például a HR-rendszerekre.

Tim Cook szerint a Big Tech világszerte intenzív vizsgálat alatt áll, és a szabályozás sok helyen még nem tudja pontosan, milyen keretekkel lehet úgy beavatkozni, hogy az ne rontsa a felhasználói élményt és a biztonságot.

A következő években nem az lesz a kérdés, lesz-e torzítás az AI-ban, hanem az:
kinek a torzítása érvényesül, és ki dönt erről?