AMD avtäckte chips för accelererad träning av artificiell intelligens
PaulSakuma.com.
AMD har tillkännagivit nya acceleratorer och processorer med fokus på Large Language Models (LLM).
Här är vad vi vet
Chiptillverkaren har avtäckt Instinct MI300X-chipet och Instinct M1300A-processorn för träning och körning av LLM. Enligt företaget överträffar de båda nya produkterna sina föregångare när det gäller minneskapacitet och strömeffektivitet.
Enligt AMD:s VD Lisa Su är MI300X "världens mest högpresterande accelerator". Den är jämförbar med Nvidias H100-chip när det gäller LLM-träning, men överträffar den med 1,4x i inferens på Meta's Llama 2 (70 miljarder parametrar).
AMD tillkännagav också ett partnerskap med Microsoft för att distribuera MI300X i Azure cloud computing. Meta tillkännagav också planer på att distribuera MI300-processorer i sina datacenter.
Dessutom tillkännagav Su MI300A APU:er för datacenter, vilket enligt företaget skulle öka marknaden till 45 miljarder dollar.APU:erna kombinerar CPU:er och GPU:er för snabbare bearbetning. AMD hävdar att MI300A ger hög prestanda, snabb modellinlärning och 30 gånger högre energieffektivitet. Den har 1,6 gånger större minneskapacitet än H100 och implementerar unified memory.
MI300A kommer att användas i superdatorn El Capitan som byggts av Hewlett Packard Enterprise för Livermore National Laboratory. Det är en av de mest kraftfulla installationerna i världen med en prestanda på mer än 2 exaflops.
Företaget gav ingen information om priser för de nya produkterna.
Dessutom tillkännagav AMD Ryzen 8040 - chips som gör det möjligt att introducera fler AI-funktioner i mobila enheter. Enligt tillkännagivandet ger 8040-serien 1,6 gånger mer AI-bearbetningsprestanda jämfört med föregående generation och har också inbäddade neurala bearbetningsenheter (NPU).
Företaget förväntar sig att Ryzen 8040-baserade produkter kommer att finnas tillgängliga under Q1 2024.
Källa: The Verge