AMD enthüllt seine Open-Ecosystem-Strategie für KI auf der Veranstaltung Advancing AI 2025

AMD enthüllt seine Open-Ecosystem-Strategie für KI auf der Veranstaltung Advancing AI 2025

TLDR : AMD hat auf der „Advancing AI 2025“ seine Open-Ecosystem-Strategie für KI vorgestellt, einschließlich neuer GPU-Beschleuniger und einer skalierbaren Infrastruktur.

Bei der jährlichen Veranstaltung „Advancing AI“, die am 12. Juni 2025 in Santa Clara stattfand, stellte AMD seine ehrgeizige Vision für ein offenes Ökosystem in der Künstlichen Intelligenz (KI) vor. Mit der Einführung einer Reihe von Hardwarekomponenten, Software und Infrastrukturlösungen will AMD das gesamte Spektrum der KI abdecken, wobei der Fokus auf Offenheit, Leistung und Flexibilität liegt.

Wesentliche Beschleunigung mit den AMD Instinct™ GPU der Serie MI350

Die neuen Beschleuniger-GPU der AMD Instinct Serie MI350, insbesondere die Modelle MI350X und MI355X, stellen einen großen Generationssprung dar, mit viermal höherer Rechenleistung als die vorherige Generation. Speziell für die steigenden Anforderungen der generativen KI und des Hochleistungsrechnens konzipiert, bieten diese Beschleuniger eine 35-fache Verbesserung bei der Inferenz und bis zu 40% mehr Tokens pro Dollar im Vergleich zu konkurrierenden Lösungen.

Offene und skalierbare KI-Infrastruktur

AMD präsentierte auch eine komplette KI-Infrastruktur auf Rack-Ebene, die auf offenen Standards basiert. Diese umfasst die AMD EPYC™ Prozessoren der 5. Generation, AMD Pensando™ Pollara Netzwerkadapter und die Instinct™ GPU der Serie MI350. Diese Infrastruktur ist bereits bei großen Akteuren wie Oracle Cloud Infrastructure (OCI) im Einsatz und wird im zweiten Halbjahr 2025 breit verfügbar sein.

Darüber hinaus enthüllte AMD seine zukünftige Generation von Infrastruktur mit dem Namen „Helios“, ausgestattet mit den kommenden Instinct MI400 GPU, den AMD EPYC™ „Venice“ CPU basierend auf der Zen 6-Architektur und den AMD Pensando „Vulcano“ Netzwerkadaptern. Diese neue Infrastruktur verspricht bis zu 10-mal höhere Leistungen bei Mixture of Experts-Modellen im Vergleich zur aktuellen Generation.

Open-Source-Software: ROCm 7 und AMD Developer Cloud

AMD setzt weiterhin auf ein offenes Software-Ökosystem mit der Veröffentlichung von ROCm 7. Diese neueste Version verbessert die Unterstützung für Standard-Frameworks, erweitert die Hardwarekompatibilität und bietet neue Tools zur Erleichterung der Entwicklung von generativen KI-Anwendungen.

Zur Unterstützung der Entwickler kündigte AMD auch die weltweite Verfügbarkeit der AMD Developer Cloud an, die eine vollständige Cloud-Umgebung zur Beschleunigung von KI-Projekten bietet.

Ambitionierte Ziele in Sachen Energieeffizienz

AMD hat sein fünfjähriges Ziel zur Verbesserung der Energieeffizienz mit einer Verbesserung um das 38-fache für KI-Trainingsknoten übertroffen. Das Unternehmen hat auch ein neues ambitioniertes Ziel für 2030 gesetzt: die Energieeffizienz auf Rack-Ebene im Vergleich zu 2024 um das 20-fache zu verbessern, mit dem Ziel, den Stromverbrauch von KI-Infrastrukturen drastisch zu reduzieren.