12.10.2018 (Doc Storage)
4.3 von 5, (7 Bewertungen)

Was bringt NVMe-oF und NF1?

Leserfrage: Kürzlich wurde mit Mission Peak ein neues skalierbares und angeblich hochperformantes Speichersystem vorgestellt. Das Gerät basiert auf NVMe-oF und nutzt NF1-SSDs. Sind diese Technologien wirklich so toll? Wie hoch darf man die Erwartungen schrauben?

Antwort Doc Storage:

Als Merkmal der Unterscheidung kann der transportbezogene Mechanismus herangezogen werden, den NVMe-oF für Befehle und deren Antworten zwischen einem Rechner und einem Speichergerät nutzt, während diese Kommunikation bei NVMe über das PCIe-Protokoll läuft. Im Gegensatz zur lokalen Lösung erlaubt NVMe-oF eine Übertragungszeit von zehn Mikrosekunden.

Es gibt verschiedene Methoden der Implementierung, beispielsweise NVMe-oF über Fibre-Channel, welches mit einem Firmware-Upgrade auch mit bereits vorhandenen 16- und 32-Gbit-Switchen genutzt werden kann. Oder NVMe-oF über RDMA, wobei die entsprechenden Kommandos dann über einen Speicher-zu-Speicher-Transport übermittelt werden. Solche Netze sind zwar wesentlich schneller als heute genutzte Speicherinfrastrukturen, lassen sich aber nicht so weit skalieren wie zum Beispiel Fibre-Channel.

Anzeige

NF1 (früher auch als M.3 oder NGSFF bekannt) wurde als Formfaktor für SSDs Mitte 2017 eingeführt. Hierbei soll eine höhere Packungsdichte für NAND-Flash-Einsätze und damit höhere Kapazitäten für NVMe-Laufwerke erreicht werden. Hersteller wie Supermicro oder Samsung erreichen mit den NF1-Einsätzen momentan die doppelte Speicherdichte bei Übertragungsraten von rund drei GByte/s lesend und knapp zwei GByte/s schreibend.

Mission Peak ist eine Speicherlösung, die sich der bereits beschriebenen NF1-Speichermodulen bedient und über ein halbes PByte Speicherplatz pro Höheneinheit bietet. Hierfür haben sich Samsung, Mellanox, AIC, E8 und Memorysolutions zusammengetan. Die Anbindung des Systems geschieht über das ebenfalls oben beschriebene NVMe-oF über RDMA. Den Anbietern zufolge lassen sich die bereits »schlüsselfertigen Systemen« mit »nahezu lokaler Geschwindigkeit« betreiben.

Nun zur Frage »was das alles bringt«. Wie immer müssen wir antworten »das kommt drauf an«. Natürlich sind doppelte Speicherdichten innerhalb eines Jahres immer schon der Begleiter der Speicherbranche gewesen. Damit ist NF1 und auch die entsprechend hochkapazitiven Systeme keine wirkliche Überraschung mehr. Die Frage nach dem »was bringt das« muss sich jeder Anwender selbst beantworten. Hat er wirklich so viele Daten, die mit entsprechender Geschwindigkeit gelesen und geschrieben werden müssen? Will er das Risiko eingehen, so früh in eine noch in den Kinderschuhen steckende Technik einzusteigen, oder will er erst einmal andere beobachten, in einem oder zwei Jahren ihre Erfahrungen auswerten und dann vielleicht stressfrei in eine bewährte Technik einsteigen? Sie kennen meine Antwort, denke ich…

Gruß
Doc Storage

Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de
Kommentare (1)
16.10.2018 - siggi

Die Frage was das bringt ist einfach zu beantworten. Mit dieser Technologie ist es möglich auf geringstem Raum, mit geringstem Energieverbrauch große Kapazitäten mit einer stabilen Gesamtperformance zur Verfügung zu stellen. Dies unter Vermeidung von Bottlenecks, so das alle Systeme ausreichend Performance haben ohne große Konfigurationsaktionen.
Sicher kommt es darauf an ob solch große Kapazitäten benötigt werden.


Mehr von Doc. tec. Storage 19.10.2018 NAS: Wie viele Volumes sind sinnvoll?

Die Ausgangslage ist ein Desktop-NAS mit RAID-5-Verbund. Wie ordnet man hier am sinnvollsten seine Daten? Ist es besser ein einziges Standard-Volume nutzen oder zu versuchen mit mehreren Volumes eine Struktur aufzubauen? Wie viele Volumes sind sinnvoll?


12.10.2018 Was bringt NVMe-oF und NF1?

Kürzlich wurde mit Mission Peak ein neues skalierbares und angeblich hochperformantes Speichersystem vorgestellt. Das Gerät basiert auf NVMe-oF und nutzt NF1-SSDs. Sind diese Technologien wirklich so toll? Wie hoch darf man die Erwartungen schrauben?


31.08.2018 Was ist Edge-Computing?

Neben dem Cloud-Computing wabert auch immer mal wieder der Begriff Edge-Computing vorbei. Eine der Definitionen lautet zum Beispiel, dass Daten direkt am Ursprung verarbeitet werden sollen, ohne dabei den Weg über ein Rechenzentrum einzuschlagen. Was bedeutet das genau und wofür brauchen wir Edge-Computing?


17.08.2018 Wie sinnvoll sind Objektspeicher mit NAS-Funktion?

Objektspeicher sind seit einiger Zeit nun auch mit NAS-Funktionalitäten erhältlich. Lassen sich solche Konfigurationen in der Praxis sinnvoll einsetzen und wie schaut es mit der Performance und Leistungswerten aus?


03.08.2018 Was können die Ethernet-Protokolle RoCE und iWARP?

Es gibt zwei neue RDMA-Protokolle: RoCE und iWARP. Hier stellt sich die Frage, was machen die und was sollte man als »normaler ITler« darüber wissen? Doc Storage erklärt die Funktionsweise der Ethernet-Protokolle, gibt aber zu bedenken, dass beide noch neu sind und man vielleicht noch ein wenig warten sollte.


20.07.2018 Storage mit KI: Wie ist hier der Stand?

Man liest ja in letzter Zeit einiges über Storage-Systeme mit eingebauter Intelligenz. Betrifft dies nur das Placement der Daten (Tier-Klassen), Objekt-Storage oder steckt da eine neue brauchbare Idee bezüglich Künstlicher Intelligenz (KI) dahinter?

powered by
TIM DCP Datacore Software
N-TEC GmbH Unitrends
Fujitsu Technology Solutions GmbH