Technológiai óriások gyűltek össze a Capitol Hillen, hogy az AI-modellek képességeivel kapcsolatos aggodalmakkal foglalkozzanak, különös tekintettel a Meta Llama 2 modelljére.
A Capitol Hillen a múlt héten jelentős technológiai vezetők gyűltek össze, hogy megvitassák a generatív AI fejlődő birodalmát. A fórumon olyan prominens személyek vettek részt, mint Elon Musk, Sam Altman, Satya Nadella, Jensen Huang és Sundar Pichai. Az ülést a szenátus többségi vezetőjéből, Chuck Schumerből, valamint Martin Heinrich, Mike Rounds és Todd Young szenátorokból álló, újonnan alakult "mesterséges intelligencia munkacsoport" szervezte. Ez a csoport az OpenAI ChatGPT nevű botjának globális elismerését követően jött létre. A találkozó komoly fordulatot vett, amikor fény derült a Meta Llama 2 modelljének lehetséges veszélyeire. Tristan Harris, a Center for Humane Technology társalapítója felfedte, hogy a Llama 2 átfogó útmutatót adhat az Anthrax (Lépfene) biológiai fegyverként való előállításához. Ez a felfedezés heves vitához vezetett Harris és Mark Zuckerberg, a Meta vezérigazgatója között. Zuckerberg azzal kontrázott, hogy hasonló információk máshol is megtalálhatók, Harris azonban hangsúlyozta, hogy a Llama 2 egyedülálló mélységet és részletességet kínál, különösen nyílt forráskódú jellegét tekintve. Zuckerberg kísérletét, hogy lekicsinyelje a Llama 2 képességeit, szkeptikusan fogadták. Harris azzal érvelt, hogy bár az ember találhat útmutatókat az olyan platformokon, mint a YouTube, de egyik sem éri el azt a pontosságot és útmutatást, amit a Llama 2 tud nyújtani. A vita rávilágított arra, hogy az AI innovációjának szilárd biztosítékokkal kell rendelkeznie. Az ülésen jelen lévő egyik szenátor megjegyezte az eszmecsere komolyságát és azt is, hogy a vitázók többsége egyetértett abban, hogy a mesterséges intelligencia fejlődését a szükséges óvintézkedésekkel kell egyensúlyba hozni. A Harris és Zuckerberg közötti intenzív eszmecsere ellenére a mesterséges intelligencia körüli tágabb kérdéseket nem tárták fel alaposan. A Llama 2 képességei, beleértve azt is, hogy képes a felhasználókat káros anyagok létrehozására irányítani, nem indokoltak további vizsgálatot. A Metán belül elismerték a Llama 2 képességeit és egyes bennfentesek szerint bármelyik nagy nyelvi modell hasonló potenciális kockázatokkal járna. Továbbra is kihívást jelent a hatalmas mennyiségű internetes adaton kiképzett mesterséges intelligencia eszközök ellenőrzése, mivel azok néha káros vagy pontatlan információkat állíthatnak elő vagy másolhatnak.