Egy olyan világban, ahol a generatív AI virágzik, a Google megszigorítja a gyeplőt, biztonságos és tiszteletteljes digitális környezetet biztosítva az Android-alkalmazásokban.
A Fehér Ház készen áll arra, hogy újradefiniálja az AI területét, és egy olyan végrehajtási rendeletet mutat be, amely egyszerre ígérkezik széles körűnek és merésznek.
Az OpenAI innovatív riválisa, az Anthropic AI újradefiniálja az etikus AI határait, és a nyilvánosság hozzájárulásával erős, új alapszabályt adott ki a Claude nevű chatbotjához.
Az AI fejlődése különös fordulatot vesz a GPT-4-gyel, amely előrelépést tesz a megbízhatóság terén, de kifinomult burkolata alatt riasztó sebezhetőségeket fedez fel.
Miközben az OpenAI a GPT-4-gyel a képfelismerés területére merészkedik, egy nemrégiben megjelent technikai dokumentum feltárja a modell küzdelmeit és az előttünk álló rögös utat.
A GitHub Copilot Chat, amely egykor kizárólag a vállalkozások számára volt elérhető, mostantól az egyéni előfizetők számára is elérhető, forradalmasítva a kódolási élményt.
Az OpenAI bemutatja Red Teaming Network hálózatát, amelynek célja, hogy megerősítse az AI-modelleket az elfogultságok és kockázatok ellen.
Ahogy Európa bemutatja az AI-ról szóló törvényét és a világ feszülten figyel: Áldás vagy csapás lesz a kontinens gazdasága számára?
A nagy technológiai szereplők, köztük az Adobe, az IBM és az Nvidia, megállapodtak a Fehér Házzal, hogy innovatív, biztonságos és megbízható AI-t alkotnak.
Elon Musk nehezményezte, hogy „kimaradt a harcból” az AI felemelkedésének idején, annak ellenére, hogy társalapítója volt az OpenAI-nak – mondja az életrajzíró.
A Google DeepMind nevű AI részlege a hírek szerint egy sor olyan AI-alapú eszközön dolgozik, amelyek életvezetési tanácsokat, tervezést és oktatást kínálnak.
Az AI gyors fejlődése és a benne rejlő lehetőségek egyszerre káprázatosak és ijesztőek, ezért az amerikai közvélemény szövetségi felügyeletet követel.
Amikor az AI-rendszerek elkezdenek eltérni a tervezett céljuktól, AI-drift következik be, ami komoly kockázatokat jelent a döntéshozatalra, az etikára, a biztonságra és még sok másra nézve.
Az Anthropic bemutatja a Claude Instant 1.2-t, a szöveggeneráló modelljének továbbfejlesztett változatát, amely új korszakot jelent az AI képességek terén.
A Torq Socrates, a kifejezetten kiberbiztonsági műveletekhez tervezett AI-ügynök a kritikus biztonsági tevékenységek automatizálásával átalakítja az iparágat.
Kutatók egy csoportja megkongatta a vészharangot az AI chatbotok egyik legnagyobb hibája miatt: biztonsági intézkedéseik áthághatók, és nem tudják, hogyan javítsák ki őket.
A SentinelOne forradalmasítja a felhőalapú adatbiztonságot új termékcsaládjával, amelynek célja az Amazon S3 és a NetApp védelme az újonnan megjelenő rosszindulatú fenyegetésekkel szemben.
A világ vezető AI-cégei egyesítik erőiket a Frontier Model Forumban, ami egy úttörő kezdeményezés, amelynek célja a fejlett AI-technológia fejlesztésének szabályozása.
A technológiai vezetők és a Fehér Ház önkéntes megállapodást kötöttek az AI biztonságos és felelős telepítésének biztosítása érdekében, ami jelentős lépést jelent az AI fejlesztésében.
Ahogy a ChatGPT bővítmények egyre nagyobb lendületet vesznek, betekintünk az üzleti követelményeknek megfelelő személyre szabott bővítmények létrehozásának folyamatában.