Kioxia GP-Serie: SSD für GPU-zentrierte KI-Workloads
Kioxia kündigt eine neue SSD-Serie an, die GPUs direkten Zugriff auf Flash-Speicher ermöglicht. Die GP-Serie soll als Erweiterung des GPU-Speichers fungieren und insbesondere für datenintensive KI- und HPC-Workloads ausgelegt sein.
Die steigenden Anforderungen moderner KI-Modelle verlagern Engpässe zunehmend vom Rechnen hin zum Datenzugriff. An diesem Punkt setzt die neue SSD-Serie von KIOXIA an. Die GP-Serie ist darauf ausgelegt, GPUs direkten Zugriff auf Flash-Speicher zu ermöglichen und diesen als zusätzliche Speicherebene neben dem High Bandwidth Memory (HBM) zu nutzen.
Da die Kapazität des HBM physikalisch begrenzt ist, entsteht bei großen Modellen schnell ein Flaschenhals. Durch die Einbindung von Flash als GPU-nahen Speicher soll sich der adressierbare Datenraum deutlich vergrößern. Das kann dazu beitragen, mehr Daten gleichzeitig vorzuhalten und die Auslastung der GPU zu verbessern.
Bestandteil von NVIDIAs Storage-Next-Konzept
Die Entwicklung steht im Zusammenhang mit der Storage-Next-Initiative von NVIDIA, die auf einen Wandel hin zu datenintensiven Workloads reagiert. Ziel ist es, Speicherarchitekturen so zu erweitern, dass Daten näher an die GPU rücken und schneller verarbeitet werden können.
Innerhalb dieses Konzepts sollen SSDs eine aktivere Rolle übernehmen. Gefragt sind Laufwerke, die speziell für GPU-initiierte Zugriffe optimiert sind. Die GP-Serie ist genau auf diesen Anwendungsfall ausgelegt und soll als zusätzliche, hochperformante Speicherschicht fungieren.
XL-Flash als Grundlage für hohe IOPS und niedrige Latenz
Technische Basis der SSDs ist XL-Flash, ein Storage-Class-Memory von Kioxia. Im Vergleich zu klassischen TLC-basierten NVMe-SSDs wird die Technologie als deutlich latenzärmer und leistungsfähiger positioniert. Der Zugriff erfolgt in kleineren Einheiten bis hinunter zu 512 Byte, was insbesondere bei KI-Workloads mit vielen kleinen I/O-Operationen Vorteile bringen kann. Gleichzeitig soll der Energiebedarf pro Zugriff sinken, was in großen GPU-Umgebungen eine Rolle spielt.
KV-Cache und große Modelle erhöhen den Speicherbedarf
Ein zentraler Treiber für solche Architekturen ist der steigende Bedarf an Key-Value-Cache. Mit wachsenden Modellgrößen und Kontextfenstern nimmt die Datenmenge zu, die schnell verfügbar gehalten werden muss. Klassischer GPU-Speicher allein reicht dafür oft nicht mehr aus.
Ergänzend verweist Kioxia auf die bestehende CM9-Serie, die für GPU-nahe Speicherhierarchien vorgesehen ist. Diese SSDs nutzen PCIe 5.0 im E3.S-Formfaktor und erreichen laut Hersteller Kapazitäten von bis zu 25,6 TByte. Die TLC-basierten Laufwerke sind für eine Ausdauer von bis zu drei vollständigen Laufwerksbeschreibungen pro Tag ausgelegt und sollen damit auch unter Dauerlast in Inferenzumgebungen bestehen.
Flash rückt näher an die GPU
Mit der GP-Serie wird ein Trend sichtbar, bei dem Flash-Speicher näher an die GPU rückt und Aufgaben übernimmt, die bislang klassischen Arbeitsspeichern vorbehalten waren. Der direkte Zugriff der GPU auf SSDs könnte helfen, die Lücke zwischen Rechenleistung und Datenverfügbarkeit zu verkleinern.
Für Betreiber von KI-Infrastrukturen ergibt sich damit eine zusätzliche Möglichkeit, große Datensätze effizient bereitzustellen, ohne ausschließlich auf teuren und begrenzten HBM angewiesen zu sein. Entscheidend dürfte sein, wie gut sich diese Ansätze in bestehende Software-Stacks integrieren lassen.
»Unsere GP-Serie stellt einen neuen Ansatz für Speicherlösungen in KI-Systemen dar und ist unsere Antwort auf die Storage-Next-Initiative von NVIDIA«, erklärt Axel Störmann, Chief Technology Officer und Vice President bei Kioxia Europe. »Indem GPUs direkten Zugriff auf Hochgeschwindigkeits-Flashspeicher als Erweiterung des HBM erhalten, ermöglicht diese neue Klasse von Super-High-IOPS-SSDs schnellere und effizientere KI-Workloads. Das ist insofern notwendig, da sich das Computing zunehmend in Richtung datenintensiver Anwendungen entwickelt. Durch unsere Zusammenarbeit mit Nvidia definieren wir die Zukunft der Speicherarchitekturen für KI neu.«