2023.09.21. VipAIR
Az OpenAI bemutatja Red Teaming Network hálózatát, amelynek célja, hogy megerősítse az AI-modelleket az elfogultságok és kockázatok ellen.
-
Az OpenAI elindítja a Red Teaming Network-öt az AI-modellek kockázatértékelésének javítása érdekében.
-
A hálózat célja a szakértőkkel, kutatóintézetekkel és civil szervezetekkel való együttműködés elmélyítése.
-
A kezdeményezés a szakértők széles körét hívja meg, hangsúlyozva a földrajzi és a területi sokszínűséget.
Az
OpenAI, az AI kiválóságára való könyörtelen törekvése során bevezette az
OpenAI Red Teaming Network-öt. Ez a kezdeményezés szakértő vállalkozók egy csoportját tömöríti, hogy alakítsák a vállalat AI kockázatértékelési és kockázatcsökkentési stratégiáit. Ahogy az AI-technológiák, különösen a generatív technológiák egyre inkább elterjednek, a Red Teaming az AI-modellek fejlesztési folyamatának kulcsfontosságú lépéseként jelenik meg. Lényeges szerepet játszik az olyan modellekben, mint a
DALL-E 2, az elfogultságok azonosításában, valamint annak biztosításában, hogy az olyan szöveggeneráló modellek, mint a
ChatGPT és a
GPT-4 megfeleljenek a biztonsági protokolloknak.
Korábban az OpenAI külső szakértőkkel működött együtt a modellek tesztelésében, többek között a hibajavító és kutatói hozzáférési programok keretében. A Red Teaming Network azonban hivatalossá teszi ezeket az együttműködéseket. Az OpenAI célja a tudósokkal, kutatóintézetekkel és civil társadalmi csoportokkal való együttműködésének elmélyítése és kiszélesítése. Ahogy az OpenAI megemlíti: „A hálózat tagjait szaktudásuk alapján hívják majd meg a Red Teaminghez a modell- és termékfejlesztési ciklus különböző szakaszaiban”.
Az OpenAI a területi szakértők széles spektrumát bátorítja a csatlakozásra, a nyelvészektől a pénzügyi szakemberekig. Az AI-rendszerekkel kapcsolatos korábbi tapasztalat nem kötelező. Az OpenAI hangsúlyozza a sokféle nézőpont fontosságát a mesterséges intelligencia hatásainak értékelésében és örömmel fogadja a globális jelentkezéseket. A vita azonban továbbra is fennáll: Elegendő-e a Red Teaming? Egyes szakértők a „Violet Teaming” mellett érvelnek, amely a lehetséges rendszerkárok azonosítására és az ellenük való védekezéshez szükséges eszközök kifejlesztésére összpontosít. Egyelőre az OpenAI-éhoz hasonló „Red Teaming” hálózatok tűnnek a legéletképesebb megoldásnak.