Az OpenAI DALL-E 3-mal kapcsolatos lehetséges visszaélésekkel szembesülve egy Microsoft-mérnök aggodalma alapvető etikai kérdéseket vet fel a technológiával kapcsolatban.
Miközben az AI tovább alakítja világunkat, az Egyesült Királyság Versenypiaci Hatósága ütemtervet biztosít etikus és felelősségteljes fejlődéséhez, amely az alapmodellekre összpontosít.
Mivel az AI egyre inkább áthatja a különböző ágazatokat, a megbízhatóság és az érthetőség kérdése kiemelkedő jelentőségűvé válik.
A Stanford Egyetem legfrissebb tanulmánya szembeszökő valóságot tár fel: az AI-modellek többsége nem felel meg az uniós AI-törvénynek.
Az európai fogyasztói szervezetek felszólítják a hatóságokat, hogy vizsgálják meg a generatív AI által jelentett potenciális veszélyeket, és szerezzenek érvényt a meglévő jogszabályoknak.
A prominens AI-vállalatok, a Google DeepMind, az OpenAI és az Anthropic ígéretet tettek arra, hogy korai vagy elsőbbségi hozzáférést biztosítanak az Egyesült Királyságnak az AI-modelljeikhez biztonsági kutatások céljából.
Egy texasi szövetségi bíró érvényre juttatta az AI-val generált jogi érvelést tiltó intézkedéseket, és új szabályt vezetett be a bírósági eljárások hitelességének megőrzése érdekében.
A Databricks felvásárolja az Okera-t, hogy az Okera AI-alapú adatkezelési és biztonsági technológiájával fejlessze AI-alapú adatkezelési platformját, a Unity Catalog-ot.
Kína közzétette a generatív AI-technológiák biztonságos fejlesztésére vonatkozó rendelettervezetet, hangsúlyt fektetve az ilyen eszközök és adatforrások biztonságos és megbízható használatára.
A Biden-kormányzat a nyilvánosság véleményét kéri az AI-ellenőrzések, -értékelések, -tanúsítások és más eszközök kidolgozásával kapcsolatban, amelyek célja a nyilvánosság bizalmának megteremtése.
Az AI-irányítás megvalósítása megköveteli, hogy az adat- és analitikai vezetők fontolóra vegyék a kockázatok csökkentése és a siker elérése érdekében szükséges kulcsfontosságú intézkedéseket.