Netapp aktualisiert EF-Series für datenintensive Workloads
Mit EF50 und EF80 bringt Netapp eine neue Generation seiner EF-Series auf den Markt. Die Systeme sollen hohe Performance, Skalierbarkeit und Effizienz für KI-, HPC- und Datenbank-Workloads kombinieren und dabei Kosten sowie Betriebsaufwand im Griff behalten.
NetApp erweitert seine EF-Series um die Modelle EF50 und EF80, die gezielt auf hochperformante Block-Storage-Anforderungen ausgelegt sind. Die Systeme adressieren Workloads mit extremen Anforderungen an Durchsatz und Latenz, etwa im Umfeld von künstlicher Intelligenz, High-Performance-Computing (HPC) und transaktionsintensiven Datenbanken. Auch neue Einsatzszenarien wie Sovereign-AI-Umgebungen oder KI-gestützte Produktionsprozesse sollen sich damit abbilden lassen. Der Anbieter positioniert die Systeme als kosteneffiziente Option für Organisationen, die große Datenmengen verarbeiten und gleichzeitig ihre Infrastruktur möglichst schlank halten wollen.
Fokus auf maximale Performance bei überschaubarer Komplexität
Im Zentrum steht der Anspruch, hohe Rohleistung ohne zusätzliche betriebliche Komplexität bereitzustellen. Laut Hersteller sollen Unternehmen damit in der Lage sein, datenintensive Anwendungen schneller bereitzustellen und zu skalieren. Sandeep Singh, Senior Vice President und General Manager Enterprise Storage bei Netapp, betont: »Stetig wachsende Datenmengen und leistungsintensive Anwendungen wie das Training von KI-Modellen, KI-Inferenzierung und HPC stellen Unternehmen vor wachsende Herausforderungen.« Die neuen Systeme seien darauf ausgelegt, hohe Geschwindigkeit, Skalierbarkeit und Effizienz zu liefern, ohne den administrativen Aufwand zu erhöhen.
In Kombination mit parallelen Dateisystemen wie Lustre oder BeeGFS lassen sich die Systeme vor allem im HPC-Umfeld einsetzen. Dort übernehmen sie typischerweise die Rolle eines leistungsstarken Scratch-Speichers, um GPUs kontinuierlich mit Daten zu versorgen. Das soll dazu beitragen, Engpässe in rechenintensiven Simulationen oder KI-Trainingsläufen zu vermeiden. Gleichzeitig soll die EF-Series auch Branchen wie Medienproduktion oder Neocloud-Anbieter adressieren, die große Datenmengen performant verarbeiten müssen.
EF50 und EF80 unterscheiden sich bei Leistung, Konnektivität und Ziel-Workloads
Ein Blick in die technischen Details zeigt, dass sich EF50 und EF80 nicht nur in der Skalierung, sondern auch in der konkreten Hardware-Ausprägung unterscheiden. Beide Systeme setzen auf ein 2U-All-Flash-Design mit NVMe-SSDs (typischerweise bis zu 24 Laufwerke) und erreichen laut Hersteller eine maximale Rohkapazität von bis zu 1,5 PByte pro System. Gegenüber der Vorgängergeneration soll die Performance um rund 250 Prozent gestiegen sein, was die klare Ausrichtung auf hochparallele, datenintensive Workloads unterstreicht.
Deutlicher werden die Unterschiede bei der Leistung: Das EF80 erreicht laut Hersteller einen Lesedurchsatz von über 110 GByte/s sowie bis zu 55 GByte/s beim Schreiben. Das EF50 positioniert sich darunter und ist für weniger extreme, aber weiterhin anspruchsvolle Workloads ausgelegt. Beide Systeme profitieren von überarbeiteten Controllern mit erweitertem Arbeitsspeicher, was sich insbesondere bei latenzkritischen Anwendungen und parallelen Zugriffsmustern bemerkbar machen soll.
Auch bei der Konnektivität differenzieren sich die Modelle: Das EF80 ist für hochskalierende Umgebungen konzipiert und unterstützt Netzwerkanbindungen wie NVMe-over-Fabrics mit hohen Bandbreiten, etwa über InfiniBand oder RoCE. Damit adressiert es vor allem KI- und HPC-Cluster, in denen große Datenmengen schnell zwischen Storage und GPU-Infrastruktur bewegt werden müssen. Das EF50 fällt hier etwas kompakter aus und richtet sich stärker an klassische Enterprise-Workloads wie Datenbanken oder gemischte Umgebungen mit moderaten Skalierungsanforderungen.
Ergänzend nennt NetApp eine Energieeffizienz von 63,7 GByte/s pro Kilowatt, womit die Systeme auch unter Effizienzgesichtspunkten für dichte Rechenzentrumsumgebungen ausgelegt sind. In der Praxis ergibt sich eine klare Rollenverteilung: Das EF80 zielt auf maximale Bandbreite und Parallelität, während das EF50 als kosteneffizientere Variante für leistungsorientierte, aber weniger stark skalierende Szenarien positioniert ist.
Bewährte Architektur als Grundlage für neue Leistungsanforderungen
Die neue Generation baut auf der bestehenden EF-Series-Architektur auf, die der Hersteller mit über einer Million Installationen als etabliert und erprobt ansieht. Mit der aktuelle Überarbeitung positionieren sich die EF50 und EF80 vor allem als spezialisierte Systeme für Umgebungen, in denen klassische Enterprise-Storage-Funktionen zugunsten maximaler Performance in den Hintergrund treten.