Az AI megállíthatatlan fejlődése fokozza a deepfakes és a valódi tartalmak megkülönböztetésének nehézségeit, ami aggodalomra ad okot a lehetséges visszaélésekkel kapcsolatban.
A Dell és az Nvidia bejelentette a Project Helix-et, amelynek célja, hogy a generatív AI-ban és a nagy nyelvi modellekben rejlő lehetőségeket helyhez kötött vállalati környezetben is kiaknázza.
A kvantum-AI forradalom hatalmas lehetőségeket rejt magában, de a felelősségteljes elfogadás kulcsfontosságú a lehetséges buktatók – például a világ uralmának – elkerülése érdekében.
Az Apple aktívan fejleszti saját AI nagy nyelvi modelljét, miközben egyúttal arra utasítja a munkatársakat, hogy csökkentsék a külső AI-eszközökre, például a ChatGPT-re való támaszkodást.
A TSA az arcfelismerő technológiát teszteli egyes amerikai repülőtereken a biztonság és a hatékonyság javítása érdekében, de aggályok merülnek fel a magánélet védelmével és a pontossággal kapcsolatban.
Egy nemrégiben készült tanulmány hat kritikus biztonsági kockázatot tár fel, amelyek a ChatGPT rosszindulatú szereplők általi visszaélése kapcsán merülnek fel.
A vitatott arcfelismerő eszközéről ismert amerikai startup, a Clearview AI újabb 5,2 millió eurós bírságot kapott Franciaországban, a 20 millió mellé, mert nem tartotta be az adatvédelmi rendeleteket.
A kaliforniai székhelyű MosaicML teljesen menedzselt következtetési szolgáltatást vezet be, amely lehetővé teszi a vállalkozások számára, hogy egyszerűen és költséghatékonyan telepítsenek generatív AI modelleket.
Sam Altman, az OpenAI vezérigazgatója bejelentette, hogy a vállalat adatvédelmi aggályokra hivatkozva nem használ többé ügyféladatokat AI-modelleinek, köztük a GPT-nek a képzéséhez.
A Microsoft állítólag egy új, az adatvédelemre összpontosító ChatGPT-t fejleszt, kizárólag bankok és más érzékeny vállalkozások számára.
A PrivateAI elindította a PrivateGPT-t, egy olyan adatvédelmi réteget, amelynek célja az érzékeny információk automatikus csökkentése a nagy nyelvi modellek, például a ChatGPT felhasználói kéréseiből.
A generatív AI modellek, mint például a ChatGPT, potenciálisan javíthatják az üzleti eredményeket, de nem megfelelő használatuk esetén jelentős adatvédelmi és biztonsági kockázatokkal is járnak.
Az OpenAI változtatásokat hajtott végre, hogy kielégítse az olasz szabályozó hatóságokat és helyreállítsa a ChatGPT szolgáltatáshoz való hozzáférést Olaszországban.
Az OpenAI mostantól lehetőséget kínál a ChatGPT-ben a csevegési előzmények kikapcsolására, megakadályozva ezzel, hogy a korábbi beszélgetéseket az AI-modellek képzéséhez használják fel.
Az AI fejlesztése költséges, ami előnyhöz juttatja a Big Tech vállalatokat, amelyek rendelkeznek az intenzív alkalmazások támogatásához szükséges infrastruktúrával és képességekkel.
Az Európai Parlament több képviselője nyílt levelet írt, amelyben szigorúbb szabályokat követelnek az AI fejlesztésére, miközben a ChatGPT ellen az uniós adatvédelmi hatóságok és több ország is vizsgálatot indított.
Mivel a ChatGPT-hez hasonló generatív AI-szolgáltatások egyre népszerűbbek, egyre nagyobb aggodalomra ad okot az ilyen eszközök használatának biztonsága és etikája.
Mivel a számítógépes látás technológiája folyamatosan fejlődik és az iparágak egészét formálja, a legújabb trendekkel való lépéstartás soha nem volt még ilyen fontos.
Az AI folyamatos terjedésével párhuzamosan fel kell ismerni és kezelni kell az aggályokat és általa a társadalomra jelentett potenciális veszélyeket.
A Snapchat új eszközöket, például korhatár-szűrőt és a szülőknek szóló betekintést vezetett be az AI chatbotjának javítása érdekében, miután a jelentések szerint a bot nem megfelelő módon reagált.