Samsung and AMD expand AI chip partnership with HBM4 memory and data centre systems as global AI infrastructure demand rises.

Samsung Electronics und AMD haben ihre langjährige Zusammenarbeit mit einer neuen Vereinbarung zur KI‑Infrastruktur vertieft, da die weltweite Nachfrage nach leistungsstarken Rechenzentrumsystemen beschleunigt.

Die Absichtserklärung wurde auf Samsungs Halbleiter‑Campus in Pyeongtaek, Südkorea, unterzeichnet, während eines Besuchs von AMD‑CEO Lisa Su zusammen mit Samsung Electronics Vize‑Chairman und CEO Young Hyun Jun.

Das Abkommen spiegelt einen breiteren Branchentrend wider, bei dem sich Chiphersteller enger zusammenschließen, um Engpässe im KI‑Rechnen zu adressieren, insbesondere in Bezug auf Speichergeschwindigkeit, Energieeffizienz und Systemintegration.

Warum Speicher zum KI‑Flaschenhals wird

Der Vertrag konzentriert sich auf eine engere Abstimmung zwischen Speicher‑ und Rechentechnologien.

Erwartet wird, dass Samsung seine nächste Generation von High‑Bandwidth‑Memory, HBM4, für AMDs kommenden Instinct MI455X‑KI‑Beschleuniger liefert.

Zudem wird Samsung DDR5‑Speicher entwickeln, der auf AMDs sechste EPYC‑Prozessorgeneration mit dem Codenamen Venice zugeschnitten ist.

Mit der Vergrößerung von KI‑Modellen sind Speicherbandbreite und Effizienz zu kritischen Einschränkungen geworden.

Anspruchsvolle KI‑Workloads erfordern Systeme, in denen GPUs, CPUs und Speicher nahtlos zusammenarbeiten.

Diese Zusammenarbeit zielt darauf ab, sowohl Training als auch Inferenz in Rechenzentren der nächsten Generation zu verbessern.

Samsungs HBM4 ist so konzipiert, dass es Geschwindigkeiten von bis zu 13 Gigabit pro Sekunde erreicht und eine Bandbreite von bis zu 3,3 Terabyte pro Sekunde liefert.

Der Speicher basiert auf einem DRAM‑Prozess der 10‑Nanometer‑Klasse der sechsten Generation mit einem 4‑nm‑Logik‑Basis‑Die und geht in die Massenproduktion.

Wie die Chips Systeme der nächsten Generation antreiben

AMDs Instinct MI455X‑GPU, von der erwartet wird, dass sie Samsungs HBM4 integriert, wird für großskalige KI‑Workloads positioniert.

Sie wird Teil von AMDs Helios‑Rack‑Scale‑Architektur sein, die Rechenleistung, Speicher und Netzwerk auf Systemebene integriert.

Die Unternehmen konzentrieren sich auf Full‑Stack‑Integration und verbinden AMD Instinct‑GPUs, EPYC‑CPUs und fortschrittlichen Speicher zu einheitlichen Plattformen.

Dieser Ansatz gilt zunehmend als unerlässlich, um KI‑Systeme in Rechenzentren effizient zu skalieren.

Neben der Speicherlieferung umfasst die Vereinbarung auch Gespräche über eine mögliche Foundry‑Partnerschaft.

Samsung könnte zukünftige AMD‑Chips fertigen und damit seine Rolle über den Speicher hinaus auf die Vertragsfertigung ausdehnen.

Wie das Abkommen in das globale Chip‑Rennen passt

Die Partnerschaft kommt zu einer Zeit, in der der Wettbewerb im KI‑Halbleitermarkt intensiver wird.

Unternehmen ringen darum, langfristige Lieferketten für fortschrittlichen Speicher, insbesondere HBM‑Chips, zu sichern, die nur begrenzt verfügbar sind.

Laut Counterpoint hält Samsung derzeit rund 22 % des globalen HBM‑Markts und liegt damit hinter SK Hynix, das mit 57 % führt.

Eine engere Bindung an AMD könnte Samsung helfen, diese Lücke zu verkleinern.

Die Ankündigung fällt zudem mit Nvidias jährlicher GTC‑Entwicklerkonferenz zusammen, auf der CEO Jensen Huang Samsungs HBM4‑Fähigkeiten hervorhob und eine Foundry‑Partnerschaft mit dem Unternehmen bestätigte.

Warum die Nachfrage großer Tech‑Firmen Dringlichkeit erzeugt

Die Dringlichkeit hinter solchen Partnerschaften wird durch groß angelegte KI‑Investitionen von Technologieunternehmen getrieben.

AMD hat kürzlich eine mehrjährige Vereinbarung zur Lieferung von KI‑Chips an Meta Platforms getroffen, die Berichten zufolge einen Wert von bis zu 60 Milliarden US‑Dollar haben soll und Bedingungen enthalten könnte, unter denen Meta bis zu 10 % an dem Unternehmen erwerben würde.

Im vergangenen Jahr unterzeichnete AMD eine ähnliche Vereinbarung mit OpenAI.

Diese Abkommen gestalten die Halbleiterlandschaft um und treiben Chiphersteller dazu, über den gesamten Computing‑Stack hinweg enger zusammenzuarbeiten.

Samsung und AMD arbeiten seit fast zwei Jahrzehnten gemeinsam in den Bereichen Grafik, Mobilfunk und Rechentechnologien.

In jüngerer Zeit lieferte Samsung HBM3E‑Speicher für AMDs MI350X‑ und MI355X‑Beschleuniger und legte damit den Grundstein für diese ausgeweitete Zusammenarbeit.

The post Samsung und AMD vertiefen KI‑Chip‑Partnerschaft: Darum ist das wichtig appeared first on Invezz