Miért viselkedik másképp a ChatGPT a különböző nyelveken?

Az AI nyelvi modellek, mint például a ChatGPT, több pontatlan információt ismételnek meg bizonyos nyelveken, mint másokon, de miért van ez így?

Egy jelentés szerint a GPT technológiára épülő ChatGPT nyelvi modellje nagyobb valószínűséggel ad dezinformációt kínai dialektusokban, mint angolul. A kísérlet során arra kérték a modellt, hogy hozzon létre hírcikkeket több, a kínai kormánynak tulajdonított valótlan állításról, például arról az állításról, hogy a hongkongi tüntetéseket az USA által támogatott ügynökök rendezték.

Amikor arra kérték, hogy angolul írjon, a ChatGPT hétből csak egy cikket generált, amely összhangban volt a kínai kormány hivatalos álláspontjával az ujgurok tömeges fogva tartásáról, amelyet szakmai és oktatási kezdeményezésként írt le. Ezzel szemben a ChatGPT minden felszólításban és kimenetben hamis állításokat produkált, amikor arra kérték, hogy egyszerűsített vagy hagyományos kínai nyelven írjon, amelyek a leggyakrabban használt írott nyelvek Kínában, Hongkongban, Tajvanon és Makaón.

Az eredmény egyszerre érdekes és riasztó. Miért kellene azonban egy mesterséges intelligencia modellnek különböző válaszokat generálnia attól függően, hogy milyen nyelven kommunikál? A válasz abban rejlik, hogy a mesterséges intelligencia rendszereket gyakran antropomorfizálják, ami arra készteti az embereket, hogy azt feltételezzék, hogy csupán a választott nyelven közvetítik a tudást. A ChatGPT azonban egy statisztikai modell, amely a szavak sorozatán belül mintákat azonosít, és a képzési adatok alapján megjósolja a következő szavakat.

A nyelvi modell nem "tud" semmit abban az értelemben, mint az emberek. Ennek eredményeképpen az általa adott válasz nem egy tényleges válasz, hanem inkább egy előrejelzés arra vonatkozóan, hogy mi lenne a válasz, ha a válasz jelen lenne a képzési adathalmazban. Egyelőre nem világos, hogy a különböző nyelvi adathalmazok mennyire befolyásolják a jóslatok eredményét. Bár a modell többnyelvű, a nyelvek az adathalmazon belül különálló és egymást átfedő területeket alkotnak.

Amikor angol nyelvű választ kérnek, a modell az angol nyelvű adathalmazból merít. Ezzel szemben, amikor hagyományos kínai nyelven kell választ adnia, elsősorban a kínai nyelvű adathalmazból merít. Nem világos, hogy ezek a különböző adathalmazok mennyire tájékoztatják egymást vagy a kapott eredményt, de a kísérlet azt jelzi, hogy viszonylag függetlenek.

Ez hatással van azokra az egyénekre, akik az angolon kívül más nyelveken is használnak mesterséges intelligencia modelleket, ami a képzési adathalmazok uralkodó nyelve. Ez egy további figyelmeztetés, amelyet figyelembe kell venni, amikor AI-modellekkel dolgozunk. Már így is kihívást jelent annak megállapítása, hogy egy nyelvi modell pontos, hamis vagy akár másolt válaszokat ad-e, és a nyelvi akadály hozzáadása még nehezebbé teszi ezt.

Bár a kínai politikával kapcsolatos példa szélsőséges, könnyen elképzelhetőek más olyan forgatókönyvek is, amelyekben a ChatGPT olasz nyelvű válaszadásra kérve a képzési adathalmazon belüli olasz tartalmakra támaszkodik és azokat tükrözi. Bizonyos esetekben ez előnyös lehet!

Ez nem jelenti azt, hogy a nagy nyelvi modellek csak angolul vagy az adathalmazukban legszélesebb körben reprezentált nyelven hasznosak. A ChatGPT kétségtelenül hasznos lesz a politikailag kevésbé vitatott kérdések esetében, mivel kimenete viszonylag pontos lesz, akár angolul, akár kínaiul írja.

A jelentés azonban érdekes kérdést vet fel, amelyet az új nyelvi modellek jövőbeli fejlesztése során figyelembe kell venni. Nem csak arról van szó, hogy a propaganda jobban érvényesül-e az egyik nyelvben, mint a másikban, hanem más, finomabb elfogultságokról vagy hiedelmekről is.

Megosztás Facebookon