Die rasante Skalierung künstlicher Intelligenz stößt auf fundamentale physische Grenzen, die weit über den reinen Rechenzentrumsraum hinausreichen. Nach Analyse von Alpine Macro entstehen mit dem sogenannten Scale-across zwei kritische neue Engpässe in der AI-Infrastruktur: die Vernetzung von Rechenclustern über mehrere Standorte hinweg und eine sich verschärfende Speicherkrise, die durch die Nachfrage nach High Bandwidth Memory ausgelöst wird. Beide Phänomene haben direkte Auswirkungen auf die Rendite von AI-Investitionen und zeichnen neue Gewinner- und Verlierer-Szenarien entlang der gesamten technologischen Wertschöpfungskette nach.
Milliardenverluste durch ungenutzte Rechenkapazität
Die ökonomische Dimension des Problems ist beträchtlich. Moderne AI-Training-Workloads erreichen laut Industriestandards typischerweise nur eine GPU-Auslastung von 30 bis 50 Prozent. Bis zu 70 Prozent der Trainingszeit entfallen auf I/O-Operationen – also das Bewegen von Daten und das Warten auf den nächsten Batch. Bei Schneidpreisen von 30.000 bis 70.000 Dollar pro Chip und Clustern, die Zehntausende von Prozessoren umfassen, summieren sich diese Ineffizienzen zu Milliardenbeträgen an brachliegender Rechenkapazität. Die Maximierung des ROI von AI-Infrastruktur hängt folglich maßgeblich davon ab, wie effizient Daten durch den Stack fließen können.
Das Problem verschärft sich, weil AI-Cluster die Grenzen einzelner Rechenzentren überschreiten. Modelle mit wachsenden Parameterzahlen erfordern immer mehr GPUs, mehr Strom, mehr Kühlung und mehr physischen Raum. Einzelne Einrichtungen stoßen nun an harte Limits bei Platz, Energie und Kühlkapazität. Die Antwort der Industrie ist Scale-across: die Verteilung von AI-Workloads über mehrere Gebäude oder geografisch getrennte Campus, die hunderte Kilometer voneinander entfernt sein können, während sie als ein logischer Rechencluster operieren.
Neue Vernetzungsebene als Investitionstrend
Diese Entwicklung hat eine völlig neue Infrastrukturschicht geschaffen, die vor zwei Jahren noch nicht existierte. Scale-across stellt andere technische Anforderungen als herkömmliche Vernetzung: Werden AI-Trainingsdaten zwischen Gebäuden über 100 Kilometer Entfernung bewegt, darf kein einziges Paket verloren gehen. Jeder Paketverlust würde Tausende von GPUs blockieren und die Recheneffizienz unmittelbar beeinträchtigen. Cisco-Präsident Jeetu Patel brachte es auf den Punkt: Jedes Paket, das die GPU nicht erreicht, sei wie Geldverbrennen.
Der Markt hat darauf mit einer Welle von Produktneuheiten reagiert. Broadcom positioniert sich mit dem Jericho4-Fabric-Router-Chip, der über eine Million Beschleuniger über mehrere Rechenzentren hinweg vernetzen soll. Cisco verfolgt einen vertikal integrierten Ansatz mit dem P200-Chip und dem 8223-Routing-System, das Verbindungen bis zu 1.000 Kilometer ermöglicht. NVIDIA geht einen anderen Weg: Spectrum-XGS ist eine Software- und Algorithmus-Lösung, die die GPU-zu-GPU-Kommunikationsleistung nahezu verdoppeln soll – und gleichzeitig das Ökosystem-Lock-in vertieft.
Bemerkenswert ist, dass alle im zweiten Halbjahr 2025 lancierten Scale-across-Produkte auf Ethernet basieren. Ethernet hat InfiniBand bei der Scale-out-Vernetzung bereits 2025 überholt, getrieben durch großangelegte Deployments, die äquivalente Leistung zu niedrigeren Kosten mit Multi-Vendor-Flexibilität bewiesen haben. Die Ethernet for Scale-Up Networking Initiative, unterstützt von AMD, Broadcom, Cisco, Meta, Microsoft, NVIDIA und OpenAI, zielt nun darauf ab, Ethernet auch im Scale-up-Bereich zu standardisieren.
Speicherkrise reicht bis zu Endverbrauchergeräten
Parallel zur Netzwerkherausforderung verengt sich die Speicherversorgung dramatisch. Die drei Hersteller, die rund 95 Prozent des weltweiten DRAM produzieren – SK Hynix, Samsung und Micron – verlagern ihre begrenzten Kapazitäten systematisch zu höhermargigen AI-Produkten. Die Produktion eines Gigabyte HBM verbraucht etwa drei- bis viermal so viel Wafer-Kapazität wie herkömmliches DRAM. Bei einem Preis, der etwa dem Fünffachen von konventionellem DDR5 entspricht, haben die Hersteller wenig Anreiz, diese Allokation zu ändern.
Die Folgen sind entlang der gesamten Wertschöpfungskette spürbar. DRAM-Preise stiegen im Jahresvergleich bis zum dritten Quartal 2025 um rund 172 Prozent, mit projizierten weiteren Steigerungen von 55 bis 60 Prozent im ersten Quartal 2026. Die Knappheit greift auf NAND-Flash und sogar auf Festplatten über. Nach Angaben von Western Digital ist die HDD-Kapazität für das Kalenderjahr 2026 praktisch ausverkauft. Preise für beliebte Modelle wie die Seagate BarraCuda 24TB haben sich innerhalb weniger Monate mehr als verdoppelt.
Die Auswirkungen erreichen nun die Endverbraucher. HP hat Preiserhöhungen für PCs bestätigt, Dell folgt Berichten zufolge bei Firmenkunden. Mehrere PC-OEMs reduzieren SSD-Kapazitäten in ihren 2026-Produktlinien, um Kosten zu kontrollieren. Gartner prognostiziert, dass PCs unter 500 Dollar bis 2028 vollständig vom Markt verschwinden könnten. Chinesische Smartphone-Hersteller wie Xiaomi, Oppo und Transsion korrigieren ihre Absatzprognosen für 2026 nach unten, wobei Oppo seine Erwartungen um bis zu 20 Prozent senkt.
Investmentimplikationen und Marktfolgen
Für Investoren zeichnen sich klare Gewinner- und Verlierer-Szenarien ab. Im Netzwerkbereich sind Broadcom, Cisco und Arista positioniert, Scale-across als völlig neue Infrastruktur-Ausgabekategorie zu erschließen. Anbieter kohärenter Optik wie Coherent und Lumentum profitieren direkt von jedem Scale-across-Link über Campus-Distanzen hinaus. Die drei großen Speicherhersteller verfügen über außerordentliche Preissetzungsmacht in einem verkäuferkontrollierten Markt.
Die Konsolidierungsdynamik begünstigt Unternehmen mit Bilanzstärke. Apple und Samsung, isoliert durch langfristige Liefervereinbarungen und die Fähigkeit, steigende Kosten zu absorbieren, dürften Marktanteile gewinnen, während Tier-2- und Tier-3-OEMs existenzielle Margenkompression erleben. Der CEO von Phison warnte, der Markt werde in der zweiten Jahreshälfte 2026 viele Opfer sehen. Die strukturelle Neupreisierung des gesamten Technologie-Stacks wird sich voraussichtlich über mehrere Jahre erstrecken.






DE: Dieser Beitrag wurde automatisch vom altii-Redaktionssystem generiert. Der Inhalt wurde nicht manuell auf seine Richtigkeit überprüft. Wir sind bestrebt, relevante und aktuelle Informationen bereitzustellen. EN: This article was automatically generated by the altii editorial system. The content has not been manually reviewed for accuracy. We aim to provide relevant and timely information.