Az OpenAI csendben megváltoztatta irányelveit a katonai felhasználásra vonatkozóan

Az OpenAI nemrégiben frissített irányelvei finoman eltörlik a katonai alkalmazásokra vonatkozó kifejezett tilalmakat, ami jelentős változást jelez az AI etikájában és használatában.

  • Az OpenAI csendben felülvizsgálta felhasználási irányelveit és megszüntette a katonai alkalmazásokra vonatkozó kifejezett tilalmakat, beleértve a fegyverfejlesztést és a hadviselést.

  • Az új irányelv olyan tág alapelveket hangsúlyoz, mint például „ne ártunk másoknak”, de hiányzik a katonai felhasználás konkrét tilalma, ami aggodalmakat vet fel az AI biztonságával és etikájával kapcsolatban.

  • Szakértők aggodalmukat fejezik ki ezen irányelv változás következményeivel kapcsolatban, kiemelve az AI katonai műveletekben való alkalmazásának kockázatait, valamint az elfogult és pontatlan eredmények lehetőségét.

Az OpenAI, a mesterséges intelligencia egyik vezető ereje a közelmúltban finom, de jelentős változtatást hajtott végre a felhasználási irányelveiben. Korábban a szabályzat kifejezetten tiltotta technológiájának – beleértve az olyan népszerű eszközöket, mint a ChatGPT – katonai célokra, például fegyverfejlesztésre és hadviselésre való felhasználását. Ez az egyértelmű tiltás összhangban állt a katonai alkalmazásokban előforduló mesterséges intelligencia lehetséges kockázataival kapcsolatos etikai aggályokkal. A közelmúltbeli felülvizsgálat során azonban eltűntek ezek a konkrét tilalmak és helyükbe egy általánosabb megfogalmazás került, amely tiltja az OpenAI szolgáltatásainak másoknak való ártalmas felhasználását, példaként a fegyverfejlesztést említve.

Ez az irányelv változás, amelyet nem hirdettek meg nyilvánosan, egy szélesebb körű átdolgozás része, amelynek célja a dokumentum egyértelműbbé és olvashatóbbá tétele. Az OpenAI szóvivője, Niko Felix szerint a cél az volt, hogy olyan egyetemes elveket határozzanak meg, amelyek könnyen érthetőek és alkalmazhatóak, különösen az OpenAI eszközeinek globális népszerűségének növekedésével. Ez a lépés azonban kérdéseket vetett fel a mesterséges intelligencia biztonságára és katonai felhasználására gyakorolt hatásaival kapcsolatban. Olyan szakértők, mint Heidy Khlaaf, a Trail of Bits kiberbiztonsági cég mérnöki igazgatója, megjegyzik, hogy az új irányelv úgy tűnik, hogy a jogi megfelelést helyezi előtérbe a biztonsággal szemben, ami potenciálisan lehetővé teszi a törvényes katonai alkalmazásokat, amelyek pontatlan és káros műveletekhez vezethetnek.

Ennek az irányelv változásnak a valós következményeit még nem lehet teljesen megérteni. Korábban az OpenAI a Pentagon és az amerikai hírszerző közösség növekvő érdeklődése ellenére sem volt elkötelezett a katonai és hadászati felhasználás egyértelmű tilalmának érvényesítését illetően. Kifejezetten a katonai alkalmazásokat tiltó megfogalmazás eltörlése egybeesik a hadseregek világszerte növekvő erőfeszítéseivel a gépi tanulási technikák beépítésére. Az olyan nagy nyelvi modellek (LLM), mint a ChatGPT, amelyeket hatalmas mennyiségű adaton képeznek ki választékos szövegkimenetek előállítására, különösen vonzóak, mivel képesek nagy mennyiségű információ gyors feldolgozására és elemzésére.

A mesterséges intelligencia katonai környezetben történő alkalmazása azonban nem kockázatmentes. Az LLM-ek, bár képesek meggyőző eredményeket produkálni, gyakran szenvednek pontatlanságoktól és torzításoktól, ami aggodalomra ad okot a bevetésükkel kapcsolatban olyan forgatókönyvekben, ahol a pontosság és a tényszerűség döntő fontosságú. Az amerikai hadsereg érdeklődése az AI-eszközei iránt e kihívások ellenére is rámutat arra, hogy milyen potenciált látnak a műveleteik javításában. Kathleen Hicks védelmi miniszterhelyettes hangsúlyozta, hogy az AI az innovációs stratégia kulcsfontosságú részét képezi, bár figyelmeztetett arra, hogy a jelenlegi ajánlatok nem biztos, hogy teljes mértékben megfelelnek a mesterséges intelligencia etikai elveivel.

Ahogy az OpenAI politikája fejlődik, szakértők azt sugallják, hogy a vállalat megnyitja az utat a katonai műveletek támogatása előtt olyan módon, amely nem jár közvetlenül fegyverfejlesztéssel. Ez az árnyalt megközelítés lehetővé teheti az OpenAI számára, hogy a nem harci alkalmazások álcája alatt katonai ügyfelekkel lépjen kapcsolatba, még akkor is, ha az ilyen felhasználások közvetve hozzájárulhatnak a katonai erőfeszítésekhez. Az új irányelvben szereplő kétértelműség kérdéseket vet fel az OpenAI etikus AI-használat iránti elkötelezettségével kapcsolatban, különösen annak fényében, hogy partnerkapcsolatban áll a Microsoft-tal, egy jelentős védelmi vállalkozóval. Ez a partnerség, valamint az AI széles körű katonai alkalmazási lehetőségei azt sugallják, hogy a mesterséges intelligencia etikája és a katonai szerepvállalás összetett jövő elé néz.

Megosztás Facebookon