A közelgő AI-szabályozás nem biztos, hogy megvéd minket a veszélyes AI ellen

Az AI rendszerek, különösen a neurális hálózatok növekvő használata aggodalmat keltett azok „fekete doboz” jellege és az általuk okozott lehetséges károk miatt.

A neurális hálózatok, a manapság legszélesebb körben használt mesterséges intelligencia rendszerek, amik hatalmas mennyiségű adatot dolgoznak fel a biológiai agy működését utánozva. Ezen algoritmusok döntéshozatali folyamata azonban számtalan mesterséges neuronrétegbe van burkolva, ami kifürkészhetetlenné és átláthatatlanná teszi őket. Az átláthatóság hiánya számos káros vagy veszélyes mesterséges intelligencia előfordulásához vezetett, például halálos áldozatokat követelő mesterséges intelligencia által vezérelt járművekhez, algoritmikus torzításhoz, valamint rasszista vagy sértő következményekhez.

Ezen aggályok kezelése érdekében az EU javaslatot tett egy AI-törvényre, amely előírja, hogy a nagy kockázatot jelentő AI-rendszereket, például a kritikus infrastruktúrák, a bűnüldözés és a megfigyelés területén átlátható módon kell felépíteni, lehetővé téve a szervezetek számára, hogy a potenciálisan torzított adatokat azonosítsák és eltávolítsák. Az Egyesült Államok is kidolgozott egy AI-törvény tervezetet, amely kimondja, hogy a felhasználóknak képesnek kell lenniük megérteni az életüket befolyásoló automatizált rendszereket. Mindkét szabályozás célja, hogy megvédje a nyilvánosságot az átláthatatlan mesterséges intelligencia által jelentett veszélyektől.

Az új szabályozási rendszerek létrehozása azonban kihívást jelenthet és a történelem azt mutatja, hogy a rosszul kidolgozott jogszabályok elfojtják az innovációt. Ennek ellenére az átlátható mesterséges intelligencia a jövőben normává válhat, mivel a szervezeteknek olyan mesterséges intelligencia-rendszereket kell bevezetniük, amelyek értelmezhető kimenetet biztosítanak felhasználóik számára.

Megosztás Facebookon