Az OpenAI nemrégiben frissített irányelvei finoman eltörlik a katonai alkalmazásokra vonatkozó kifejezett tilalmakat, ami jelentős változást jelez az AI etikájában és használatában.

Az OpenAI csendben felülvizsgálta felhasználási irányelveit és megszüntette a katonai alkalmazásokra vonatkozó kifejezett tilalmakat, beleértve a fegyverfejlesztést és a hadviselést.
Az új irányelv olyan tág alapelveket hangsúlyoz, mint például „ne ártunk másoknak”, de hiányzik a katonai felhasználás konkrét tilalma, ami aggodalmakat vet fel az AI biztonságával és etikájával kapcsolatban.
Szakértők aggodalmukat fejezik ki ezen irányelv változás következményeivel kapcsolatban, kiemelve az AI katonai műveletekben való alkalmazásának kockázatait, valamint az elfogult és pontatlan eredmények lehetőségét.
Az OpenAI, a mesterséges intelligencia egyik vezető ereje a közelmúltban finom, de jelentős változtatást hajtott végre a felhasználási irányelveiben. Korábban a szabályzat kifejezetten tiltotta technológiájának – beleértve az olyan népszerű eszközöket, mint a ChatGPT – katonai célokra, például fegyverfejlesztésre és hadviselésre való felhasználását. Ez az egyértelmű tiltás összhangban állt a katonai alkalmazásokban előforduló mesterséges intelligencia lehetséges kockázataival kapcsolatos etikai aggályokkal. A közelmúltbeli felülvizsgálat során azonban eltűntek ezek a konkrét tilalmak és helyükbe egy általánosabb megfogalmazás került, amely tiltja az OpenAI szolgáltatásainak másoknak való ártalmas felhasználását, példaként a fegyverfejlesztést említve.
Ez az irányelv változás, amelyet nem hirdettek meg nyilvánosan, egy szélesebb körű átdolgozás része, amelynek célja a dokumentum egyértelműbbé és olvashatóbbá tétele. Az OpenAI szóvivője, Niko Felix szerint a cél az volt, hogy olyan egyetemes elveket határozzanak meg, amelyek könnyen érthetőek és alkalmazhatóak, különösen az OpenAI eszközeinek globális népszerűségének növekedésével. Ez a lépés azonban kérdéseket vetett fel a mesterséges intelligencia biztonságára és katonai felhasználására gyakorolt hatásaival kapcsolatban. Olyan szakértők, mint Heidy Khlaaf, a Trail of Bits kiberbiztonsági cég mérnöki igazgatója, megjegyzik, hogy az új irányelv úgy tűnik, hogy a jogi megfelelést helyezi előtérbe a biztonsággal szemben, ami potenciálisan lehetővé teszi a törvényes katonai alkalmazásokat, amelyek pontatlan és káros műveletekhez vezethetnek.
Ennek az irányelv változásnak a valós következményeit még nem lehet teljesen megérteni. Korábban az OpenAI a Pentagon és az amerikai hírszerző közösség növekvő érdeklődése ellenére sem volt elkötelezett a katonai és hadászati felhasználás egyértelmű tilalmának érvényesítését illetően. Kifejezetten a katonai alkalmazásokat tiltó megfogalmazás eltörlése egybeesik a hadseregek világszerte növekvő erőfeszítéseivel a gépi tanulási technikák beépítésére. Az olyan nagy nyelvi modellek (LLM), mint a ChatGPT, amelyeket hatalmas mennyiségű adaton képeznek ki választékos szövegkimenetek előállítására, különösen vonzóak, mivel képesek nagy mennyiségű információ gyors feldolgozására és elemzésére.
A mesterséges intelligencia katonai környezetben történő alkalmazása azonban nem kockázatmentes. Az LLM-ek, bár képesek meggyőző eredményeket produkálni, gyakran szenvednek pontatlanságoktól és torzításoktól, ami aggodalomra ad okot a bevetésükkel kapcsolatban olyan forgatókönyvekben, ahol a pontosság és a tényszerűség döntő fontosságú. Az amerikai hadsereg érdeklődése az AI-eszközei iránt e kihívások ellenére is rámutat arra, hogy milyen potenciált látnak a műveleteik javításában. Kathleen Hicks védelmi miniszterhelyettes hangsúlyozta, hogy az AI az innovációs stratégia kulcsfontosságú részét képezi, bár figyelmeztetett arra, hogy a jelenlegi ajánlatok nem biztos, hogy teljes mértékben megfelelnek a mesterséges intelligencia etikai elveivel.
Ahogy az OpenAI politikája fejlődik, szakértők azt sugallják, hogy a vállalat megnyitja az utat a katonai műveletek támogatása előtt olyan módon, amely nem jár közvetlenül fegyverfejlesztéssel. Ez az árnyalt megközelítés lehetővé teheti az OpenAI számára, hogy a nem harci alkalmazások álcája alatt katonai ügyfelekkel lépjen kapcsolatba, még akkor is, ha az ilyen felhasználások közvetve hozzájárulhatnak a katonai erőfeszítésekhez. Az új irányelvben szereplő kétértelműség kérdéseket vet fel az OpenAI etikus AI-használat iránti elkötelezettségével kapcsolatban, különösen annak fényében, hogy partnerkapcsolatban áll a Microsoft-tal, egy jelentős védelmi vállalkozóval. Ez a partnerség, valamint az AI széles körű katonai alkalmazási lehetőségei azt sugallják, hogy a mesterséges intelligencia etikája és a katonai szerepvállalás összetett jövő elé néz.