Sam Altman szerint az OpenAI ChatGPT nem fog többé az ügyféladatokra támaszkodni

Sam Altman, az OpenAI vezérigazgatója bejelentette, hogy a vállalat adatvédelmi aggályokra hivatkozva nem használ többé ügyféladatokat AI-modelleinek, köztük a GPT-nek a képzéséhez.

Az OpenAI vezérigazgatója, Sam Altman a pénteki interjújában nyilvánosságra hozta, hogy a vállalat már jó ideje nem használ ügyféladatokat mesterséges intelligencia modelljei képzéséhez. Ezt a döntést az ügyfelek által a magánélet és az adatvédelemmel kapcsolatban kifejezett aggodalmakra válaszul hozták. Altman hangsúlyozta, hogy az OpenAI elkötelezett az ilyen aggályok kezelése és a felhasználói adatok védelmének biztosítása mellett.

Ennek a változásnak a tükrözésére az OpenAI március 1-jén csendben frissítette szolgáltatási feltételeit. Bár a frissített feltételek kifejezetten kimondják az ügyfelek adatainak kizárását a képzésből, megemlítik az API-n kívüli forrásokból származó tartalmak felhasználásának lehetőségét. Ez magában foglalja az alkalmazottak által a széles körben használt ChatGPT chatbotba beírt szöveget, amely a szakértők körében aggodalmat keltett a jelentős adatok célzott reklámcélú gyűjtésének lehetőségével kapcsolatban.

A ChatGPT-hez hasonló mesterséges intelligencia chatbotok aggodalmat keltettek a felhasználók körében, akiket óva intettek attól, hogy érzékeny információkat osszanak meg ezekkel az eszközökkel. A mesterséges intelligencia chatbotok emberhez hasonló képességei hamis bizalomérzetet kelthetnek, ami a felhasználókat érzékenyebbé teszi a nem szándékos adatkiadásra. Ali Vaziri, a Lewis Silkin ügyvédi iroda jogi igazgatója hangsúlyozza, hogy a felhasználóknak tisztában kell lenniük a mesterséges intelligencia chatbotokkal kapcsolatos adatvédelmi következményekkel.

Az AI-technológiát övező aggodalmak túlmutatnak a magánélet védelmén. A Fehér Ház Kamala Harris alelnökkel együtt nemrégiben találkozót tartott négy nagy technológiai vállalat – köztük az OpenAI – vezérigazgatóival, hogy a mesterséges intelligencia által jelentett kockázatokkal foglalkozzanak. A találkozó során az átláthatóság kiemelt hangsúlyt kapott, hangsúlyozva az AI-rendszerek működésének és felhasználásának megértésének fontosságát. Az AI-rendszerek biztonságának, biztonságosságának és hatékonyságának értékelése és ellenőrzése is szóba került, kiemelve az olyan szabványosított folyamatok szükségességét, mint az auditok, tesztelés és tanúsítás.

A vezérigazgatók elkötelezettsége, hogy együttműködnek a kormányzattal az amerikai emberek jólétének és jogainak biztosítása érdekében, a felelős innováció iránti közös elkötelezettséget jelzi. A Fehér Ház továbbá számos olyan intézkedést vázolt fel, amelyek célja a felelős mesterséges intelligencia gyakorlatok előmozdítása, beleértve a mesterséges intelligencia jogokra vonatkozó tervezet kidolgozását, végrehajtási intézkedéseket, a mesterséges intelligencia kockázatkezelési keretrendszert és a nemzeti mesterséges intelligencia kutatási erőforrás létrehozását.

Az OpenAI azon döntése, hogy nem használja tovább az ügyféladatokat mesterséges intelligencia modelljei képzéséhez, pozitív lépést jelent az adatvédelem fokozása felé. Továbbra is aggodalomra ad okot azonban a ChatGPT-hez hasonló szolgáltatásokból származó szövegek felhasználása. A Fehér Ház tisztviselői és a technológiai cégek vezérigazgatói közötti találkozó kiemeli a potenciális AI-kockázatok kezelésének jelentőségét, miközben előmozdítja az innovációt és a felelős AI-fejlesztést.

Megosztás Facebookon