Red Teaming Network: Az OpenAI stratégiája az AI-modellek biztonságának fokozására

Az OpenAI bemutatja Red Teaming Network hálózatát, amelynek célja, hogy megerősítse az AI-modelleket az elfogultságok és kockázatok ellen.

  • Az OpenAI elindítja a Red Teaming Network-öt az AI-modellek kockázatértékelésének javítása érdekében.

  • A hálózat célja a szakértőkkel, kutatóintézetekkel és civil szervezetekkel való együttműködés elmélyítése.

  • A kezdeményezés a szakértők széles körét hívja meg, hangsúlyozva a földrajzi és a területi sokszínűséget.

Az OpenAI, az AI kiválóságára való könyörtelen törekvése során bevezette az OpenAI Red Teaming Network-öt. Ez a kezdeményezés szakértő vállalkozók egy csoportját tömöríti, hogy alakítsák a vállalat AI kockázatértékelési és kockázatcsökkentési stratégiáit. Ahogy az AI-technológiák, különösen a generatív technológiák egyre inkább elterjednek, a Red Teaming az AI-modellek fejlesztési folyamatának kulcsfontosságú lépéseként jelenik meg. Lényeges szerepet játszik az olyan modellekben, mint a DALL-E 2, az elfogultságok azonosításában, valamint annak biztosításában, hogy az olyan szöveggeneráló modellek, mint a ChatGPT és a GPT-4 megfeleljenek a biztonsági protokolloknak.

Korábban az OpenAI külső szakértőkkel működött együtt a modellek tesztelésében, többek között a hibajavító és kutatói hozzáférési programok keretében. A Red Teaming Network azonban hivatalossá teszi ezeket az együttműködéseket. Az OpenAI célja a tudósokkal, kutatóintézetekkel és civil társadalmi csoportokkal való együttműködésének elmélyítése és kiszélesítése. Ahogy az OpenAI megemlíti: „A hálózat tagjait szaktudásuk alapján hívják majd meg a Red Teaminghez a modell- és termékfejlesztési ciklus különböző szakaszaiban”.

Az OpenAI a területi szakértők széles spektrumát bátorítja a csatlakozásra, a nyelvészektől a pénzügyi szakemberekig. Az AI-rendszerekkel kapcsolatos korábbi tapasztalat nem kötelező. Az OpenAI hangsúlyozza a sokféle nézőpont fontosságát a mesterséges intelligencia hatásainak értékelésében és örömmel fogadja a globális jelentkezéseket. A vita azonban továbbra is fennáll: Elegendő-e a Red Teaming? Egyes szakértők a „Violet Teaming” mellett érvelnek, amely a lehetséges rendszerkárok azonosítására és az ellenük való védekezéshez szükséges eszközök kifejlesztésére összpontosít. Egyelőre az OpenAI-éhoz hasonló „Red Teaming” hálózatok tűnnek a legéletképesebb megoldásnak.

Megosztás Facebookon