Az OpenAI társalapítója, Ilya Sutskever aggodalmát fejezte ki a ChatGPT-hez hasonló AI chatrobotok lehetséges visszaélése miatt, kijelentve, hogy egy bizonyos ponton könnyen nagy kárt lehet okozni velük.
Az OpenAI által nemrégiben kiadott ChatGPT aggodalmakat váltott ki az AI chatbotok lehetséges visszaéléseivel kapcsolatban, és a szakértők arra figyelmeztetnek, hogy könnyen ki lehet őket használni arra, hogy kárt okozzanak. Ilya Sutskever, az OpenAI vezető tudósa és társalapítója kifejtette, hogy a ChatGPT-hez hasonló AI-modellek egyre erősebbek, és eljön majd az idő, amikor jelentős károkozásra lehet használni őket. "Egy bizonyos ponton elég könnyű lesz, ha valaki akarja, nagy kárt okozhat ezekkel a modellekkel" - mondta. Ilya Sutskever azt is elárulta, hogy az OpenAI már nem ad részletes tájékoztatást arról, hogyan képzi ki ezeket az AI-modelleket a növekvő képességeivel kapcsolatos aggodalmak miatt. Kijelentette, hogy ahogy ezeknek a modelleknek a képességei növekednek, úgy van értelme nem nyilvánosságra hozni azokat, hozzátéve, hogy "a mesterséges inteligencia nyílt kiszervezése egyszerűen nem bölcs dolog". Az OpenAI vezérigazgatója, Sam Altman is hasonló aggodalmaknak adott hangot az AI-modellek esetleges kártékonyságával kapcsolatban. Bár elismerte, hogy a mesterséges intelligencia "hihetetlenül jó" lehet, arra is figyelmeztetett, hogy a legrosszabb esetben "mindannyiunk számára kialszik a fény". Altman már korábban kijelentette, hogy az AI-eszközök szabályozása kritikus fontosságú lesz, mivel a világ talán már nincs is olyan messze a potenciálisan ijesztő mesterséges intelligencia eszközöktől.