retail investors flooding into recently launched ai themed etf

Die Halbleiterlandschaft erlebt eine strukturelle Verschiebung in der Allokation von Privatanlegerkapital, da der DRAM‑ETF (für Speicherchips) als zentrales Vehikel für Investitionen in KI‑Infrastruktur hervorsticht.

Der Fonds, aufgelegt von Roundhill Investments am 2. April, hat sich schnell zum Favoriten unter Privatanlegern entwickelt, die gezielte Exponierung zur Speicherchip‑Lieferkette suchen.

Während frühe KI‑Investitionszyklen GPUs bevorzugten, signalisiert die jüngste Marktentwicklung eine zunehmende Fokussierung auf die Speicher‑Engpässe, die derzeit globale Hyperscale‑Rechenzentren einschränken.

DRAM‑Zuflüsse schreiben 2026 Geschichte

Laut Vanda Research haben sich Privatanleger im Rekordtempo in DRAM eingekauft, wobei die täglichen Käufe innerhalb des ersten Monats 200 Millionen USD (ca. 174,5 Millionen €) überschritten – ein schnellerer Anstieg der Dollarzuflüsse als bei früheren Favoriten wie TSLL und BITO.

Wichtiger noch: „Es gibt keine Anzeichen dafür, dass sich diese Kauf‑Euphorie kurzfristig abschwächt“, schrieben die Vanda‑Forscher in ihrem jüngsten Bericht.

Die Konzentration des Fonds spiegelt den oligopolistischen Charakter der Branche wider. Seine drei größten Positionen – Samsung, SK Hynix und Micron – machen etwa 75 % der 6 Milliarden USD (ca. 5,2 Milliarden €) der gesamten Vermögenswerte aus.

Das fundamentale Bull‑Case‑Argument für diese Positionen ist einfach: Während KI‑Hyperscaler um Kapazitätserweiterungen wetteifern, hat sich Speicher als kritischer Engpass herauskristallisiert, was zu stark steigenden Einkaufspreisen und Befürchtungen über langfristige Engpässe führt.

Dieses Ungleichgewicht von Angebot und Nachfrage könnte die Margen ankurbeln; viele prognostizieren inzwischen, dass diese Kennzahl in diesem Jahr 70 % übersteigen wird.

Weitere bedeutende Beiträge im DRAM‑Universum stammen von spezialisierten Datenspeicher‑ und Chipherstellern wie Kioxia, Western Digital und Seagate, was darauf hindeutet, dass Privatanleger HBM‑Speicher und Solid‑State‑Speichergeräte zunehmend als die essenziellen „Picks‑and‑Shovels“ des KI‑Ausbaus betrachten.

Warum Privatanleger Speicherchips statt GPUs bevorzugen

Die Begeisterung der Privatanleger für DRAM ist nicht nur eine Momentum‑Geschichte – sie spiegelt einen tiefergehenden architektonischen Wandel in KI‑Systemen wider.

Experten sind der Ansicht, dass die nächste Welle der künstlichen Intelligenz zu agentischen Workloads tendiert, in denen Modelle nicht nur Ausgaben erzeugen, sondern mehrstufige Aufgaben steuern, externe Tools aufrufen und verteilte Arbeitsabläufe managen.

Dieser Wandel verlagert Leistungsengpässe weg von GPU‑zentrierter Inferenz hin zu CPU‑intensiven Koordinationsschichten.

Wie Daniel Nenni im April für SemiWiki schrieb: „Aufkommende agentische KI‑Systeme verwandeln Inferenz in einen verteilten, mehrstufigen Prozess. Dieser Architekturwandel führt zu erheblichem CPU‑Bedarf,“ und verändert damit grundlegend, wie Rechenleistung in Rechenzentren zugewiesen wird.

Shawn Kim, Senior‑Analyst bei Morgan Stanley, stimmte dieser Sichtweise zu, hob seine CPU‑TAM‑Prognose für 2030 um 25 % an und beschrieb künftige KI‑Systeme als hybride Architekturen – dichte „GPU‑Racks“ für die Modellausführung kombiniert mit „CPU‑Racks“ für Orchestrierung, Datenverarbeitung und Tool‑Ausführung.

Für Privatanleger macht dieser sich entwickelnde Stack Speicher, insbesondere HBM und hochdichte Speicherlösungen, zu einer direkteren Möglichkeit, auf die Infrastrukturengpässe zu setzen, die sowohl aus der GPU‑ als auch aus der CPU‑Erweiterung entstehen, und positioniert den DRAM‑Fonds als die sauberere, skalierbarere Wette beim KI‑Ausbau.

The post Privatanleger strömen in neu aufgelegten, KI‑fokussierten ETF appeared first on Invezz