12.10.2018 (Doc Storage)
4.2 von 5, (11 Bewertungen)

Was bringt NVMe-oF und NF1?

Leserfrage: Kürzlich wurde mit Mission Peak ein neues skalierbares und angeblich hochperformantes Speichersystem vorgestellt. Das Gerät basiert auf NVMe-oF und nutzt NF1-SSDs. Sind diese Technologien wirklich so toll? Wie hoch darf man die Erwartungen schrauben?

Antwort Doc Storage:

Als Merkmal der Unterscheidung kann der transportbezogene Mechanismus herangezogen werden, den NVMe-oF für Befehle und deren Antworten zwischen einem Rechner und einem Speichergerät nutzt, während diese Kommunikation bei NVMe über das PCIe-Protokoll läuft. Im Gegensatz zur lokalen Lösung erlaubt NVMe-oF eine Übertragungszeit von zehn Mikrosekunden.

Es gibt verschiedene Methoden der Implementierung, beispielsweise NVMe-oF über Fibre-Channel, welches mit einem Firmware-Upgrade auch mit bereits vorhandenen 16- und 32-Gbit-Switchen genutzt werden kann. Oder NVMe-oF über RDMA, wobei die entsprechenden Kommandos dann über einen Speicher-zu-Speicher-Transport übermittelt werden. Solche Netze sind zwar wesentlich schneller als heute genutzte Speicherinfrastrukturen, lassen sich aber nicht so weit skalieren wie zum Beispiel Fibre-Channel.

NF1 (früher auch als M.3 oder NGSFF bekannt) wurde als Formfaktor für SSDs Mitte 2017 eingeführt. Hierbei soll eine höhere Packungsdichte für NAND-Flash-Einsätze und damit höhere Kapazitäten für NVMe-Laufwerke erreicht werden. Hersteller wie Supermicro oder Samsung erreichen mit den NF1-Einsätzen momentan die doppelte Speicherdichte bei Übertragungsraten von rund drei GByte/s lesend und knapp zwei GByte/s schreibend.

Mission Peak ist eine Speicherlösung, die sich der bereits beschriebenen NF1-Speichermodulen bedient und über ein halbes PByte Speicherplatz pro Höheneinheit bietet. Hierfür haben sich Samsung, Mellanox, AIC, E8 und Memorysolutions zusammengetan. Die Anbindung des Systems geschieht über das ebenfalls oben beschriebene NVMe-oF über RDMA. Den Anbietern zufolge lassen sich die bereits »schlüsselfertigen Systemen« mit »nahezu lokaler Geschwindigkeit« betreiben.

Nun zur Frage »was das alles bringt«. Wie immer müssen wir antworten »das kommt drauf an«. Natürlich sind doppelte Speicherdichten innerhalb eines Jahres immer schon der Begleiter der Speicherbranche gewesen. Damit ist NF1 und auch die entsprechend hochkapazitiven Systeme keine wirkliche Überraschung mehr. Die Frage nach dem »was bringt das« muss sich jeder Anwender selbst beantworten. Hat er wirklich so viele Daten, die mit entsprechender Geschwindigkeit gelesen und geschrieben werden müssen? Will er das Risiko eingehen, so früh in eine noch in den Kinderschuhen steckende Technik einzusteigen, oder will er erst einmal andere beobachten, in einem oder zwei Jahren ihre Erfahrungen auswerten und dann vielleicht stressfrei in eine bewährte Technik einsteigen? Sie kennen meine Antwort, denke ich…

Gruß
Doc Storage

Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de
Kommentare (1)
16.10.2018 - siggi

Die Frage was das bringt ist einfach zu beantworten. Mit dieser Technologie ist es möglich auf geringstem Raum, mit geringstem Energieverbrauch große Kapazitäten mit einer stabilen Gesamtperformance zur Verfügung zu stellen. Dies unter Vermeidung von Bottlenecks, so das alle Systeme ausreichend Performance haben ohne große Konfigurationsaktionen.
Sicher kommt es darauf an ob solch große Kapazitäten benötigt werden.


Mehr von Doc. tec. Storage 12.04.2019 Dateisysteme für den PByte-Bereich

Datenberge jenseits des PByte-Bereichs, Cloud-Anbindungen und Analytics-Szenarien stellen Dateiysteme vor neue Herausforderungen. Der Markt bietet einige Optionen wie GPFS, Gluster FS, OneFS oder QF2. Worauf gilt es zu achten?


05.04.2019 Neuordnung des Storage-Tiering

Nachdem sich Flash und SSDs mittlerweile auch in mehrere Leistungsklassen unterteilen, steht die Technik nicht mehr nur für Tier 0. 15k-HDDs scheinen vor dem Aus zu stehen. Gilt dies auch für alle SAS-Platten? Wie sieht die Neuordnung des Storage-Tiering aktuell aus?


15.03.2019 30 Jahre World Wide Web: Was gibt es zu feiern?

Das World Wide Web feiert seinen 30. Geburtstag. Ohne dem Internet ist unser heutiges Leben nicht mehr vorstellbar. Für Doc Storage hat das Netz aber auch genug Schattenseiten. An Regulierungen bzw. an das vom Erfinder erhoffte bessere Internet, glaubt er nicht.


08.03.2019 Datenanordnung im RAID 10 mit 8 Platten

In einem Server wird ein RAID 10 mit acht Festplatten unter Windows 2008 R2 betrieben. Nun ist ein Laufwerk ausgefallen. Da sich nur wenige Daten auf den HDDs befinden, besteht die Möglichkeit, dass die defekte Platte eventuell gar keine Daten enthält?


22.02.2019 Welcher RAID-Level für welche Anwendung?

Gibt es eigentliche eine Faustregel, welches RAID-Level für welche Anwendung am besten geeignet ist? Ich denke da zum Beispiel an Datenbanken mit sehr vielen Zugriffen bei relativ kleinen Datenmengen oder an Webserver und als Extrem auf der anderen Seite Bild-Datenbanken, Audio-Server beim Rundfunk, Video-Archive mit sehr hohen Datenvolumen.


15.02.2019 Was sagt DWPD über SSDs aus?

Im Zusammenhang mit (Enterprise-)SSDs wird oft die Qualitätsgröße DWPD (Drive Writes Per Day) genutzt. Meist wird die Angabe auch für einen Zeitraum von fünf Jahren spezifiziert. Was sagt DWPD genau aus und mit welcher Standard-Lebensdauer darf man rechnen?

powered by
Boston Server & Storage Solutions Datacore Software
Fujitsu Technology Solutions GmbH Seagate Technology
N-TEC GmbH FAST LTA AG