A technológiai szakértők megnyugtató kijelentései ellenére, miszerint a GPT-4 valószínűleg nem fog új kiberfenyegetéseket feltalálni, az OpenAI elismeri, hogy az AI-eszköz kockázatokat rejt magában.
Az OpenAI legújabb mesterséges intelligencia modellje, a GPT-4 aggodalmakat kelt a kiberbiztonsági kockázatokkal kapcsolatban, bár a technológiai szakértők szerint nem valószínű, hogy új kiberfenyegetéseket hoz létre. Míg egyeseket lenyűgöz a ChatGPT és a GPT-4, mások kritizálják őket az általuk jelentett kockázatok miatt. E kritikusok között van Hector Ferran, a BlueWillow mesterséges intelligencia marketingért felelős alelnöke. Egy friss jelentés szerint Ferran úgy véli, hogy a hackerek és más rossz szereplők kihasználhatják a multimodális AI-modellt, bár maga a GPT-4 nem az elsődleges probléma. Ferran kifejtette, hogy az embereknek fel kell ismerniük, hogy a rosszindulatú szándék nem kizárólag az AI-technológiákra jellemző, és hogy minden technológia felhasználható "jóra vagy rosszra". Kijelentette azt is, hogy a mesterséges intelligenciák által jelentett biztonsági kockázatok attól függnek, hogy a rossz szereplők hogyan használják ezeket az eszközöket. Az OpenAI a hivatalos GPT-4 System Card dokumentumában elismerte, hogy a GPT-4 kockázatokat rejt magában. A mesterséges intelligencia vállalat kijelentette, hogy a kisebb nyelvi modellekkel kapcsolatos ismert kockázatok a GPT-4-ben is jelen vannak. Továbbá a GPT-4 olyan tartalmakat hozhat létre, amelyek károsak lehetnek a felhasználók számára, például támadás megtervezésére vonatkozó tanácsokat vagy gyűlöletbeszédet. Emellett az OpenAI megerősítette, hogy a multimodális mesterséges intelligenciája még mindig rendelkezik olyan társadalmi előítéletekkel és világnézetekkel, amelyek nem széles körben osztott értékek. A vállalat azonban folyamatosan fejleszti a GPT-4-et, hogy a jövőben kezelni tudja ezeket a problémákat. Összefoglalva, bár a GPT-4 növelheti a kiberbiztonsági kockázatokat, a szakértők szerint nem valószínű, hogy új kiberfenyegetéseket talál ki. Ugyanakkor figyelemmel kell kísérni, hogy a rossz szereplők hogyan használják ezt az eszközt. Az OpenAI elismerte a GPT-4-gyel kapcsolatos kockázatokat és a vállalat azon dolgozik, hogy a jövőben kezelje ezeket a problémákat.