2023.04.06. VipAIR
Az AI legújabb benchmark tesztjén az Nvidia, a Dell, a Qualcomm és több startup cég versengett azért, hogy újszerű technikákkal javítsák az AI-programok futtatásának teljesítményét és energiahatékonyságát.

A mesterséges intelligencia legújabb, "MLPerf Inference 3.0" elnevezésű benchmark tesztjén, amelyet az
MLCommons végzett, olyan gyártók, mint az
Nvidia, a
Dell, a
Qualcomm, a
Supermicro és egy sereg startup cég versengett egymással, hogy a legtöbb másodpercenként megválaszolt kérdést, a legkevesebb időt a válaszadáshoz és a legkevesebb energiafogyasztást kínálják. A teszteredmények azokat a számítási műveleteket emulálják, amelyek akkor történnek, amikor egy betanított neurális hálózatot új adatokkal táplálnak, és eredményként következtetéseket kell levonniuk.
A benchmark tesztre beérkezett pályázatokat két kategóriába soroltuk: "zárt" és "nyitott" kategóriákba. A beküldők az előbbi kategóriában szigorú szabályokat követnek a mesterséges intelligencia szoftver futtatására vonatkozóan, ami lehetővé teszi a rendszerek legközvetlenebb, egyenlő feltételek mellett történő összehasonlítását. Az utóbbi kategóriában pedig, olyan egyedi szoftvermegközelítéseket alkalmazhatnak, amelyek nem felelnek meg a benchmarkokra vonatkozó irányelv szabályainak, és így újszerű innovációkat eredményeznek.

A benchmark azt méri, hogy egy számítógép milyen gyorsan képes választ adni számos feladatra, többek között az ImageNet-re, ahol a feladat az, hogy a neurális hálózat egy fotóra több címke közül egyet alkalmazzon, amely leírja a képen lévő tárgyat, például macskát vagy kutyát. Az eredmények azt mutatták, hogy több szervezet is részt vett a benchmark tesztekben. Az MLCommons megjegyezte, hogy a több gyártó által benyújtott eredmények "jelentős, több mint 60%-os teljesítménynövekedést mutatnak egyes benchmark tesztekben".
Az Nvidia rendszere, amely két
Intel Xeon processzoron és nyolc Nvidia "Hopper" GPU-chipen futott, a hat különböző benchmark feladatból ötben végzett az első helyen, beleértve a
Google BERT nyelvi modelljének futtatását, amely a
ChatGPT előfutára. A hat feladat közül az egyikben egy Dell-rendszer végzett az első helyen, amely az Intel és az Nvidia chipek szinte azonos konfigurációját használta.
A Qualcomm a BERT nyelvi program lekérdezéseinek teljesítményét háromszorosára tudta növelni a korábbi 2.1-es forduló eredményeihez képest. A Qualcomm által benyújtott rendszer, amely két
AMD EPYC szerverchipet és 18 darab Qualcomm "AI100" AI-gyorsító chipet használt, az adatközpontok számítógépeinek nyílt divíziójában a BERT-feladatban a legjobb eredményt érte el.
A bejelentett eredmények az adatközpontokban és a "peremeken" működő számítógépes rendszerekre vonatkoznak, amely kifejezés a hagyományos adatközpontok gépein kívül számos más számítógépes rendszert is magában foglal.
A párizsi székhelyű cTuning nonprofit szervezet, amely nyílt forráskódú eszközöket fejleszt a mesterséges intelligencia programozói számára a benchmark tesztek eredményeinek különböző hardverplatformokon történő reprodukálására, egyike volt az új résztvevőknek. A Neural Magic, az xFusion, a Nettrix, a Neuchips, a Moffett és a Krai a többi érdekes startup között vett részt.
A benchmark teszt várhatóan segít megállítani a növekvő számítási igényt az egyre nagyobb méretű AI-programok futtatásához, mint például az
OpenAI ChatGPT és
GPT-4. Azzal, hogy egyre több szervezet vásárolja meg a benchmark teszteket, egyre világosabbá vált, hogy az AI-iparág a mesterséges intelligencia hatékonyságát növelő technikák fejlesztésére és javítására összpontosít, a számítási költségvetés szűkítésétől az energiatakarékosságig.