Im ersten Teil dieser Serie, Wie KI den Speichermarkt aus dem Gleichgewicht brachte, haben wir uns angesehen, wie die Nachfrage aus KI-Rechenzentren Speicher zum Engpass gemacht hat und warum sich die Preise für DRAM und NAND voraussichtlich nicht so schnell normalisieren werden. Jetzt betrachten wir, wie man in diesem Umfeld operiert. Wenn Sie 2026 Hardware entwickeln oder beschaffen, müssen Sie weiterhin Entscheidungen treffen: welche Bauteile spezifiziert werden sollen, wie Sie Ihre Designs für mehr Flexibilität strukturieren und wie Sie Risiken in der Lieferkette managen.
Wir behandeln zunächst Speicherkomponenten der „nächsten Welle“, die sich bereits in der Pipeline befinden, und gehen dann auf einige bewährte DRAM- und Flash-Komponenten ein. Anschließend stellen wir praxisnahe Vorgehensweisen sowohl für Engineering als auch für den Einkauf vor.
Für einen breiten Überblick über Speicherkomponenten sind die Kategorieseiten von Octopart für Speicher-ICs und Flash-Speicher gute Ausgangspunkte, um herstellerübergreifend nach Herstellern, Gehäusen und Verfügbarkeit zu suchen.
Samsungs LPDDR6 wurde für On-Device-KI, Automotive sowie mobile und PC-Plattformen der nächsten Generation entwickelt und bietet gegenüber LPDDR5X deutliche Effizienzgewinne, eine erweiterte I/O-Architektur und eine anfängliche Geschwindigkeit von bis zu 10,7 Gbit/s; der LPDDR6-Standard ist darauf ausgelegt, mit zunehmender Reife des Ökosystems weiter zu skalieren. LPDDR6 wird man noch nicht in den Regalen der Distributoren finden, aber wenn Sie rund um führende SoCs oder Flaggschiff-Geräte entwickeln, sollten Sie damit rechnen, darauf zu stoßen.
Am oberen Ende der Leistungsskala versprechen die 16-lagigen HBM4-Bausteine mit 48 GB von SK Hynix mehr als 2 TB/s Bandbreite; die Massenproduktion ist für etwa Q3 2026 vorgesehen. Samsung verfolgt einen anderen Ansatz und nutzt 4-nm-Logik sowie 1c-DRAM, um die thermische Performance zu verbessern. Ingenieure, die an KI-Hardware arbeiten, werden diese Bauteile in der Regel nicht über Katalogdistributoren beziehen, aber HBM4 ist für alle relevant, weil es einen großen Anteil der fortschrittlichen DRAM-Kapazität bindet – ein Grund dafür, warum konventionelles DRAM weiterhin knapp bleibt.
Mit über 400 Layern und einer 5,6-GT/s-Schnittstelle zielt Samsungs V-NAND der 10. Generation auf PCIe-5.0- und künftige PCIe-6.0-SSDs für Rechenzentren und KI-Workloads. Es ist zu erwarten, dass hochdichtes TLC auf Basis dieses Siliziums in den kommenden Jahren viele Enterprise- und High-End-Client-Laufwerke tragen wird.
Dieses 332-Layer-BiCS10 mit Toggle-DDR-6.0-Schnittstelle liefert 4,8 Gbit/s pro Pin und zielt auf KI- und Hyperscale-Speicher ab. Laut EE Times hat Kioxia erklärt, dass die gesamte NAND-Produktion für 2026 bereits in KI-bezogene Anwendungen verkauft ist, und das Hochfahren von BiCS10 von H2 2027 auf 2026 vorgezogen wurde, um die Nachfrage zu bedienen.
Diese Bauteile waren Anfang März 2026 bei großen Distributoren bestellbar. Die Verfügbarkeit ändert sich schnell, daher sollten Sie Lagerbestand und Lebenszyklusstatus auf Octopart prüfen, bevor Sie eine BOM festschreiben.
Vor diesem Hintergrund gibt es weiterhin viele Maßnahmen, mit denen Hardwareingenieure Designs robuster machen können.
Die Situation erfordert Ihre Aufmerksamkeit. Ende Februar 2026 warnte Lenovo seine Channel-Partner, Bestellungen noch vor Monatsende aufzugeben, um Preiserhöhungen im März zuvorzukommen, während TrendForce prognostizierte, dass gemischte PC-DRAM-Preise (DDR4/DDR5) allein in Q1 gegenüber dem Vorquartal um 105–110 % steigen würden. Das folgende Playbook spiegelt diese neue Realität wider.
Im ersten Teil dieser Serie haben wir das Warum hinter der Speicherknappheit behandelt. Hier haben wir das „Was jetzt?“ betrachtet. Die Antwort ist dieselbe, egal ob Sie Ingenieur sind oder im Einkauf arbeiten: Flexibilität ist die beste Absicherung. Entwickeln Sie für Austauschbarkeit, qualifizieren Sie breit und nutzen Sie Tools wie Octopart, um Ihre Optionen sichtbar und aktuell zu halten. Die Teams, die am besten durch diesen Zyklus kommen, sind diejenigen, die frühzeitig Optionalität in ihre Designs und Lieferketten eingebaut haben und sich weiter anpassen, wenn sich Versorgungslage und Preise verändern.
Die aktuelle Knappheit wird durch die Wafer-Zuteilung verursacht, nicht durch technologische Grenzen. Speicherhersteller priorisieren die margenstarke KI-Nachfrage, insbesondere HBM und Rechenzentrums-DRAM, im Rahmen mehrjähriger Verträge. Da HBM pro Bit deutlich mehr Wafer-Kapazität verbraucht als konventionelles DRAM, bleibt weniger Kapazität für DDR5, LPDDR und NAND übrig, was die Verfügbarkeit knapp hält.
LPDDR6 und HBM4 zeigen, wohin sich Plattformen entwickeln, aber die meisten Produkte im Jahr 2026 werden mit DDR5, LPDDR5X und ausgereiftem NAND ausgeliefert, das jetzt verfügbar ist. Ingenieure sollten mit Blick auf Vorwärtskompatibilität entwickeln und gleichzeitig Bauteile auswählen, die sich während der Produktion zuverlässig beschaffen lassen, anstatt auf Teile zu setzen, die noch nicht im Vertrieb verfügbar sind.
Widerstandsfähige Designs setzen auf Flexibilität und Austauschbarkeit. Dazu gehören die Standardisierung auf Mainstream-Schnittstellen, die Qualifizierung mehrerer Dichten und Anbieter, das Vermeiden fest codierter Speicherannahmen in der Firmware sowie der Einsatz von Sockeln oder Modulen, wo immer möglich. Die Unterstützung heruntergestufter Speicheroptionen stellt sicher, dass Produkte auch dann noch ausgeliefert werden können, wenn Bauteile mit höherer Kapazität knapp sind.
Der Einkauf sollte Speicher als strategische Ressource und nicht als Commodity behandeln. Zu den Best Practices gehören, langfristige Zuteilungen für kritische SKUs zu sichern, AVLs um Produktfamilien statt um einzelne Bauteile herum aufzubauen, den Lebenszyklus und Alternativen mit Tools wie Octopart zu überwachen und für Produkte mit langem Lebenszyklus gezielt Lagerbestände vorzuhalten, um erzwungene Redesigns zu vermeiden.