AMD launcht MI300X als leistungsfähigsten KI-Beschleuniger – Die Umsatzchance soll statt 150 Mrd. nun 400 Mrd. USD betragen!

Lesedauer: 4 Minuten
  • CEO Lisa Su hebt die bisherigen Umsatzchance für KI-Beschleuniger in Rechenzentren von bisher 150 Mrd. auf 400 Mrd. USD an
  • Kampfansage an NVIDIA – Beim Advancing AI-Event wurde mit dem MI300X die Markteinführung des weltweit leistungsstärksten KI-Beschleuniger verkündet
  • Erlöse im PC-Markt erholen sich – Ryzen 8040 bringt KI auf die Endgeräte und übertrifft die Konkurrenzprodukte von Intel

Advanced Micro Devices (AMD) verkündete am 6. Dezember bei der Advancing AI-Veranstaltung mit zwei Versionen des Instinct MI300 die Markteinführung seiner neuesten KI-Chips. CEO Lisa Su spricht beim MI300X KI-Beschleuniger von einer "branchenführenden Speicherbandbreite für generative KI sowie leistungsstarker Performance für das Training und die Inferenz großer Sprachmodelle". Auch die MI300A Accelerated Processing Unit (APU) kombiniert die neueste AMD CDNA 3-Architektur mit Zen 4-CPUs, um "bahnbrechende Leistung für HPC- und KI-Workloads zu liefern". Damit wird der Marktführer NVIDIA attackiert. Bisher sprach Su beim Markt für KI-Beschleuniger von einer Umsatzchance von 150 Mrd. USD-Chance bis 2027. Nun sollen KI-Chips für Rechenzentren bis dahin eine Chance von 400 Mrd. USD bieten. Damit werden jährliche Wachstumsraten von über 70 % über die nächsten vier Jahre angenommen. Das Interesse ist sehr groß, denn "LLMs nehmen immer mehr an Größe und Komplexität zu und erfordern enorme Mengen an Speicher und Rechenleistung", heißt es. Allein in diesem Jahr liegt das Potenzial bei 45 Mrd. USD, wobei die Verkäufe der MI300-Serie im nächsten Jahr tatsächlich auf "deutlich über 2 Mrd. USD" ansteigen sollen. Die passenden Produkte und erforderlichen Kunden sollen für das Erreichen dieser Ziele bereits vorhanden sein. Damit soll die MI300-Serie als die am schnellsten wachsende Produktinnovation der Firmengeschichte den Meilenstein von 1 Mrd. USD erreichen. Das Data Center-Segment wuchs zuletzt bereits dank einer hohen Nachfrage nach EPYC-CPUs der 4. Generation sequenziell um 21 %.

MI300X ist der beste KI-Beschleuniger der Welt – Übertrifft den H100 von NVIDIA bei Inferenzleistung
Dabei soll der MI300X soll den weltweit "leistungsfähigsten KI-Beschleuniger" bereitstellen und mit den H100-Chips von NVIDIA beim Training von LLMs auf Augenhöhe sein. Dieser kann den H100 bei Inferenzaufgaben, etwa beim Llama 2-LLM von Meta, um das 1,4-fache übertreffen. Damit könnte es nun kurzfristig Wettbewerbsvorteile geben, ehe NVIDIA im 2. Quartal 2024 mit der Auslieferung des neuen H200-Chips starten dürfte. Beim MI300A werden auch höhere Rechenleistungen und eine 30-mal höhere Energieeffizienz hervorgehoben. Damit soll der H100 der Speicherkapazität um das 1,6-fache übertroffen werden. AMD unterstützt auch bereits 121 der weltweit führenden 500 Supercomputer. Eingesetzt wird der MI300A auch im von Hewlett Packard Enterprise im Lawrence Livermore National Laboratory (LLNL) gebauten Supercomputer "El Capitan", der weltweit erstmals eine Rechenleistung von über 2 Exaflops erreichen soll. Eingesetzt werden wiederum die MI300X bereits im Zuge einer Kooperation mit Microsoft in virtuellen Azure-Maschinen namens Azure ND MI300x v5, die für KI-Workloads optimiert sind. Auch Dell Technologies präsentierte PowerEdge XE9680-Server mit acht AMD Instinct MI300 Series-Beschleunigern. Lenovo kündigte die Designunterstützung für die neuen AMD Instinct MI300 Series-Beschleuniger mit geplanter Verfügbarkeit in der ersten Hälfte von 2024 an und auch Super Micro Computer erweitert sein Serverangebot mit 4. Gen AMD EPYC-CPUs und den AMD Instinct MI300 Series-Beschleunigern. Auch Meta will die MI300X-Beschleuniger in den eigenen Rechenzentren einsetzen und Oracle plant damit die Verstärkung seiner Oracle Cloud Infrastructure.

Ryzen 8040 liefert neue KI-Chips für Laptops
Abseits der Rechenzentren ist auch die Erholung des PC-Marktes eine Wachstumschance. Auch dort werden leistungsstarke KI-Chips künftig dringender benötigt, um rechenintensive KI-Workloads direkt auf den Endgeräten zu übernehmen. Der neue Ryzen 8040 nun genau das noch besser ermöglichen und eine 1,6-mal höhere KI-Verarbeitungsleistung als frühere Modelle bieten. Hier werden neuronale Verarbeitungseinheiten (NPUs) direkt integriert. Im Vergleich zu von Intel angebotenen Produkten lässt sich aber auch die Leistung bei der Videobearbeitung um 64 % und bei Videospielen um 77 % steigern. Mit Acer, Asus, Dell, HP, Lenovo und Razer soll es bereits mehrere Hersteller geben, welche die Chips im 1. Quartal 2024 auf den Markt bringen. Das entsprechende Client-Segment war neben Rechenzentren mit einem Wachstum von 42 % im Jahresvergleich ebenfalls eine wichtige Stütze. Im 4. Quartal sollen die Gesamterlöse um 9 % steigen. Der Analystenkonsens rechnet für das laufende Geschäftsjahr 2023 mit einem Gesamtumsatz von 22,62 Mrd. USD und einem Nettogewinn von 2,65 USD je Aktie. Im Folgejahr soll es eine Steigerung auf 26,12 Mrd. USD bzw. 3,70 USD je Aktie geben. Damit liegt das KGV24e bei knapp 32, das bis 2026 auf 18 abnehmen dürfte.

Top-Story aus der Trader-Zeitung vom 07.12.2023
Probeabo sichern