A törvényhozók aggodalmaik ellenére a Meta a hírek szerint folytatja az élvonalbeli nyílt forráskódú nyelvtanulási modellje, a LLaMA kereskedelmi forgalomba hozatalára vonatkozó terveit.
A Trend Micro, az egyik legnagyobb kiberbiztonsági vállalat generatív AI-t épít be új Vision One platformjába, ezzel fokozva annak teljesítményét az adatok védelmében és a fenyegetések kezelésében.
Az Oracle a Cohere, egy ígéretes AI-startup céget választotta, hogy generatív AI képességeket biztosítson ügyfelei számára, megkérdőjelezve ezzel az OpenAI dominanciáját az AI terén.
A Google AI chatbotjának, a Bard-nak a tervezett európai bevezetését elhalasztották az ír adatvédelmi bizottság által jelzett adatvédelmi problémák miatt.
Ausztrália nyilvánosságra hozta az AI fejlődését övező szabályozás kidolgozására irányuló kezdeményezését, amely az Egyesült Államok és Európa közelmúltbeli erőfeszítéseiből merít ihletet.
Az Apple a 2023-as Worldwide Developers Conference alkalmával bemutatta fejlett AI és gépi tanulás kezdeményezéseit, és ezzel a Microsoft-hoz és a Google-hoz hasonló technológiai óriásoktól eltérő irányvonalat jelölt ki.
Kína kommunista pártja, élén Hszi Csin-ping elnökkel, aggodalmának adott hangot az AI fejlődő területével kapcsolatban, és hangsúlyozta a megerősített nemzetbiztonsági intézkedések sürgősségét.
Az AI megállíthatatlan fejlődése fokozza a deepfakes és a valódi tartalmak megkülönböztetésének nehézségeit, ami aggodalomra ad okot a lehetséges visszaélésekkel kapcsolatban.
A Dell és az Nvidia bejelentette a Project Helix-et, amelynek célja, hogy a generatív AI-ban és a nagy nyelvi modellekben rejlő lehetőségeket helyhez kötött vállalati környezetben is kiaknázza.
A kvantum-AI forradalom hatalmas lehetőségeket rejt magában, de a felelősségteljes elfogadás kulcsfontosságú a lehetséges buktatók – például a világ uralmának – elkerülése érdekében.
Az Apple aktívan fejleszti saját AI nagy nyelvi modelljét, miközben egyúttal arra utasítja a munkatársakat, hogy csökkentsék a külső AI-eszközökre, például a ChatGPT-re való támaszkodást.
A TSA az arcfelismerő technológiát teszteli egyes amerikai repülőtereken a biztonság és a hatékonyság javítása érdekében, de aggályok merülnek fel a magánélet védelmével és a pontossággal kapcsolatban.
Egy nemrégiben készült tanulmány hat kritikus biztonsági kockázatot tár fel, amelyek a ChatGPT rosszindulatú szereplők általi visszaélése kapcsán merülnek fel.
A vitatott arcfelismerő eszközéről ismert amerikai startup, a Clearview AI újabb 5,2 millió eurós bírságot kapott Franciaországban, a 20 millió mellé, mert nem tartotta be az adatvédelmi rendeleteket.
A kaliforniai székhelyű MosaicML teljesen menedzselt következtetési szolgáltatást vezet be, amely lehetővé teszi a vállalkozások számára, hogy egyszerűen és költséghatékonyan telepítsenek generatív AI modelleket.
Sam Altman, az OpenAI vezérigazgatója bejelentette, hogy a vállalat adatvédelmi aggályokra hivatkozva nem használ többé ügyféladatokat AI-modelleinek, köztük a GPT-nek a képzéséhez.
A Microsoft állítólag egy új, az adatvédelemre összpontosító ChatGPT-t fejleszt, kizárólag bankok és más érzékeny vállalkozások számára.
A PrivateAI elindította a PrivateGPT-t, egy olyan adatvédelmi réteget, amelynek célja az érzékeny információk automatikus csökkentése a nagy nyelvi modellek, például a ChatGPT felhasználói kéréseiből.
A generatív AI modellek, mint például a ChatGPT, potenciálisan javíthatják az üzleti eredményeket, de nem megfelelő használatuk esetén jelentős adatvédelmi és biztonsági kockázatokkal is járnak.
Az OpenAI változtatásokat hajtott végre, hogy kielégítse az olasz szabályozó hatóságokat és helyreállítsa a ChatGPT szolgáltatáshoz való hozzáférést Olaszországban.