Kína csatlakozik az USA-hoz, hogy nyilvános visszajelzést kérjen az AI-törvényekről

Kína közzétette a generatív AI-technológiák biztonságos fejlesztésére vonatkozó rendelettervezetet, hangsúlyt fektetve az ilyen eszközök és adatforrások biztonságos és megbízható használatára.

Kína új rendelettervezetet tett közzé a generatív mesterséges intelligencia technológiák, például a ChatGPT biztonságos fejlesztésének biztosítása érdekében, ami szükséges a visszaélések elkerülése és az ilyen alkalmazások egészséges növekedésének elősegítése érdekében. Miközben támogatja az AI-algoritmusok innovatív felhasználását, a China Cyberspace Administration (CAC) hangsúlyozza, hogy ezeket az eszközöket és adatforrásokat biztonságosan és megbízhatóan kell használni. A kormányzati ügynökség közzétette honlapján a törvénytervezeteket, amelyekben iránymutatásokat állapít meg a generatív AI-szolgáltatások számára, amelyeknek be kell tartania, például azt, hogy az ilyen alkalmazások milyen típusú tartalmakat hozhatnak létre az információk pontosságának biztosítása és a hamis információk terjedésének megakadályozása érdekében.

A javasolt szabályok értelmében a szolgáltatóknak "biztonsági felülvizsgálatra" kell elküldeniük alkalmazásaikat a szabályozó hatóságoknak, mielőtt a szolgáltatásokat a nyilvánosságnak kínálnák, és tilos az AI-algoritmusokat és adatokat tisztességtelen versenyre használniuk. A CAC törvénytervezetei május 10-ig várják a nyilvánosság visszajelzéseit. A lépés a generatív AI-alkalmazások iránti érdeklődés folyamatos növekedésével párhuzamosan történik, mindkét piac kulcsfontosságú szereplői, köztük a Tencent, az Alibaba, a Google és a Microsoft is kínálják vagy integrálják termékeikbe az AI-modellt.

Kína és az Egyesült Államok arra irányuló erőfeszítései, hogy némi ellenőrzést szerezzenek az AI-alkalmazások felett, az Egyesült Államok kereskedelmi minisztériumának Nemzeti Távközlési és Információs Hivatala (NTIA) a mesterséges intelligencia elszámoltathatóságával kapcsolatos nyilvános véleményeket kér. A visszajelzések alapján olyan szakpolitikák születnek majd, amelyek támogatják az AI-ellenőrzéseket, a kockázat- és biztonsági értékeléseket, a tanúsításokat és az AI-rendszerekbe vetett bizalmat megalapozó eszközöket. Mindkét ország elismeri, hogy a mesterséges intelligencia hatalmas előnyökkel jár, de csak akkor, ha a lehetséges következményekkel és károkkal foglalkoznak, és a vállalatok és a fogyasztók megbízhatnak a rendszerekben.

Megosztás Facebookon