Az AMD új chipeket ad ki a gyorsabb AI-képzés érdekében
2023.12.08. VipAIR
Az AMD a nagy teljesítményű MI300-as sorozat bevezetésével előretör az AI-chipek piacán, amelyek fokozott memóriakapacitással és energiahatékonysággal büszkélkedhetnek.
Az AMD bemutatja az Instinct MI300X gyorsítót és az MI300A APU-t, amelyek az elődökhöz képest másfélszer több memóriával és jobb energiahatékonysággal büszkélkedhetnek.
A MI300X-et a világ legnagyobb teljesítményű gyorsítójaként emlegetik, amely bizonyos szempontból felülmúlja az Nvidia H100-asát, és már integrálható a Microsoft Azure virtuális gépeibe.
Az AMD MI300A APU-ja, amely az El Capitan szuperszámítógépet hajtja, úttörő teljesítményt kínál az adatközpontokban, jelentős piaci növekedési potenciállal és továbbfejlesztett számítási képességekkel.
Az AMD az Instinct MI300X gyorsító és az Instinct MI300A gyorsított feldolgozóegység (APU) bevezetésével új lendületet hoz az AI-chipek piacán. Ezeket az új chipeket a nagy nyelvi modellek (LLM) hatékony képzésére és futtatására tervezték, ami kritikus fontosságú komponens a mai AI-vezérelt világban. Az MI300X az elődjéhez, az MI250X-hez képest 1,5-szer nagyobb memóriakapacitásával tűnik ki, ami jelentős előrelépést jelent az AMD chiptechnológiájában.
Lisa Su, az AMD vezérigazgatója hangsúlyozta az LLM-ek növekvő összetettségét és méretét, kiemelve a jelentős memóriával és számítási teljesítménnyel rendelkező chipek iránti igényt. Merészen azt állította, hogy az MI300X „a világ legnagyobb teljesítményű gyorsítója”, amely az LLM képzési és következtetési feladatokban felülmúlja az NvidiaH100-at. Ezt az állítást támasztja alá a MetaLlama 2, egy 70 milliárd paraméterű LLM teljesítménye, ahol 1,4-szeresen teljesíti a H100-at.
A Microsofttal kötött stratégiai partnerség keretében az AMD integrálta az MI300X-et az Azure virtuális gépeibe. Ezt az együttműködést Kevin Scott, a Microsoft technológiai igazgatója jelentette be Lisa Su előadása során, felfedve az Azure ND MI300X virtuális gépek előzetes verzióját. Emellett a Meta azt tervezi, hogy MI300-as processzorokat telepít adatközpontjaiban, tovább erősítve az AMD pozícióját az AI-chipek piacán.
Az AMD másik úttörő terméke, az MI300A APU az adatközpontok számára készült, és várhatóan jelentősen bővíti az AMD piaci hatókörét. A gyorsabb feldolgozás érdekében CPU-kat és GPU-kat kombináló MI300A nagy teljesítményű számítást, gyorsított modellképzést és figyelemre méltó, 30-szoros energiahatékonysági javulást kínál. Az Nvidia H100-hoz képest 1,6-szoros memóriakapacitással büszkélkedhet és egységesített memóriával rendelkezik, így nincs szükség adatátvitelre az eszközök között.
Ez az APU fogja működtetni a Lawrence Livermore National LaboratoryEl Capitan szuperszámítógépét, a világ egyik legerősebb szuperszámítógépét, amely várhatóan több mint két exaflops teljesítményt fog nyújtani. Az MI300A már gyártásban van, és adatközpontokba integrálják, bár a bejelentés idején nem hozták nyilvánosságra az árakat érintő részleteket.
Az adatközpontokon túl az AMD a Ryzen processzorokat is fejleszti. A mobil eszközökhöz tervezett új Ryzen 8040 sorozat a korábbi modellekhez képest 1,6-szor nagyobb AI-feldolgozási teljesítményt kínál, és neurális feldolgozóegységeket (NPU) is tartalmaz. Ez a sorozat nem korlátozódik az AI-feldolgozásra, jelentős javulást ígér a videoszerkesztés és a játékteljesítmény terén is. Az olyan nagy gyártók, mint az Acer, az Asus, a Dell, a HP, a Lenovo és a Razer várhatóan 2024 elején adnak ki Ryzen 8040 chipekkel ellátott termékeket.