24.11.2017 (kfr) Drucken
(4.2 von 5, 5 Bewertungen)

SSD: 2018 bringt den Durchbruch für NVMe

  • Inhalt dieses Artikels
  • SSD: 2018 bringt den Durchbruch für NVMe
  • Warum steht nun NVMe vor dem Durchbruch?
  • SSD-Entwicklung: QLC und NGSFF
  • Niedrige Latenzzeiten mit Z-SSD
  • Key-Value-Technologie gegen den Alterungsprozess

Letztes Jahr lag laut Samsung der Fokus bei Flash- und SSD auf der Balance zwischen Kapazität, Performance und Kosten. 3D-Technologien haben hier einen entscheidenden Anteil. Die Zukunft gehört NVMe, der für 2018 der Durchbruch vorhergesagt wird.

Thomas Arenz, Director Marcom + Strategic Business Development bei Samsung Semiconductor Europe, erklärt, warum 2018 das Jahr von NVMe wird, und gibt einen Einblick in kommende Technologietrends.

  In den letzten Jahren hat der SSD-Absatz jährlich für neue Rekorde gesorgt. Wo steht der Flash-Markt aktuell?

Thomas Arenz, Samsung Semiconductor Europe: »NVMe wird 2018 massiv durchstarten«Thomas Arenz, Samsung Semiconductor Europe: »NVMe wird 2018 massiv durchstarten«Arenz: Die hohe Nachfrage nach Flash ist ungebrochen. Marktforscher erwarten ein anhaltendes Wachstum von 25 Prozent. Getrieben wird der Markt vor allem durch SSDs, aber nicht nur. Smartphones benötigen immer mehr Speicher und saugen daher einen guten Teil verfügbarer Kapazitäten aus dem Markt.

An der Liefersituation ändert sich aus unserer Perspektive nur wenig. Zwar werden die Herstellungskapazitäten industrieweit erhöht, aber generell fordert das steigende Wachstum die komplette Produktionskapazität. Letztendlich ist alles, was vom Band fällt, schon verkauft.

Eine Veränderung sehen wir allerdings beim Mix der eingesetzten Interface-Technologien. SATA-SSDs nehmen, als typischer Festplattenersatz, deutlich ab. SAS legt dagegen zu, hier sind vor allem unsere 8- und 16-TByte-Modelle gefragt. Am stärksten legt aber NVMe zu und ist bei uns im Mix bereits am stärksten nachgefragt.

  Warum ist das so? Gefühlt ist NVMe doch bereits der Standard.

Arenz: Da hat schon noch einiges gefehlt. Bei uns gibt es NVMe im Volumen bereits seit zwei Jahren. Im Vergleich zu SATA bietet NVMe zirka die vierfache Leistung. Wir sind hier mit zwei Produkten aktiv: Unser Performance- und Server-Modell PM1725A ist auf höchste Bandbreite ausgelegt und erreicht sechs GByte/s lesend bzw. 2,3 GByte/s schreibend sowie eine Million IOPS.

Modell Nummer zwei ist die PM963-Serie, die für den Datacenter-Einsatz optimiert ist. Die SSD bewegt sich preislich auf SATA-Niveau, verbraucht aber nur halb so viel Energie und bringt es immer noch auf 450.000 IOPS. Im Prinzip ist dieses Laufwerk der perfekte SATA-Ersatz, was sich auch in unseren Verkaufszahlen widerspiegelt.

Bisher war NVMe vor allem ein Thema für Early-Adopters, wie zum Beispiel die typischen Hyperscaler wie Amazon, Facebook und Google. Hier steht vor allem die Anzahl der verfügbaren virtuellen Maschinen im Vordergrund, zusammen mit einem optimierten Stromverbrauch durch den Einsatz von weniger physischen »Blech«.

In diesem Umfeld werden typischerweise große Storage-Cluster mit Direct-Attached-Storage (DAS) eingesetzt. Zudem entwickelt diese Kundengruppe ihre Plattformen meist selbst und kauft nicht von der Stange. Daher sind sie auch deutlich schneller, wenn es darum geht, Innovationen zu übernehmen.

Warum steht nun NVMe vor dem Durchbruch?

  Nun ist aber nicht jeder ein großer Hyperscaler. Warum steht nun NVMe vor dem Durchbruch?

Arenz: Wir sehen im Wesentlichen drei Treiber: 1. Die System-Umgebung hat sich geändert und ist nun endlich NVMe-konform. Die neuen CPUs und Chipsets wie Skylake von Intel und AMDs Epyc bieten vollumfängliche NVMe-Unterstützung im Vergleich zu den Vorgängerversionen und arbeiten auch mit deutlich mehr PCI-Lanes – Skylake unterstützt 48 Lanes, Epyc sogar 128. Insgesamt sind die Chipsets mittlerweile NVMe optimiert und besitzen unter anderem auch softwaregesteuerte NVMe-RAIDs.

2. Zudem steht NVMe over Fabric (NVMe OF) vor der Tür und wird helfen, das Leistungspotenzial auszuschöpfen. Hierbei entfällt vor allem das Protokoll-Switching, wodurch sich die Latenz in Storage-Arrays enorm verringert. Beim Datentransfer zwischen NAS und SAN entfallen beispielsweise die typischen SCSI-Protokollaltlasten komplett. Egal, wo die SSD in diesem Verbund platziert ist, reagiert sie, als ob sie sich quasi direkt im Hostsystem selbst befindet. Das heißt, der NVMe-basierte Latenzvorteil kann nun endlich auch in Storage-Arrays ausgeschöpft werden. Wir sehen hier ein großes Interesse auf Seiten der IT-Verantwortlichen, auch wenn die Hardware-Hersteller noch daran arbeiten, diesen Flaschenhals im Storage-Zugriff aufzulösen und den IO-Block vom SCSI-Pfad zu bekommen.

Wichtig ist außerdem die Unterstützung sogenannter Advanced-Storage-Features wie Data-Protection, Data-Encryption, Data-Reduction, Dedup oder Thin-Provisioning. Noch steht den Subsysteme-Herstellern einiges an Entwicklungsarbeit bevor, aber wir gehen davon aus, dass hier in den kommenden zwölf bis 18 Monaten sehr viel passieren wird.

Samsungs SSD-Karte »PM1725a« kommt nun auch mit einem Dual-Port (Bild: Samsung).Samsungs SSD-Karte »PM1725a« kommt nun auch mit einem Dual-Port (Bild: Samsung).3. Die Verfügbarkeit von Dual-Port wird dem traditionellen Storage-Kunden aus dem Enterprise-Bereich den Wechsel von SATA/SAS auf NVMe-Systeme ermöglichen. Hier steht die Verfügbarkeit an oberster Stelle. Die berühmten 99,99999 Prozent sind eher die Norm und nicht die Ausnahme. Die Dual-Port-Schnittstelle eliminiert hierbei den Single-Point-of-Failure (SPoF). Zwar sind die SSDs selbst sehr zuverlässig und belastbar, im Hostsystem kann jedoch immer mal ein Adapter ausfallen oder ein anderes Problem auftreten. Über Dual-Port lässt sich die SSD gleichzeitig an zwei verschiedene Hosts anschließen. Reagiert der eine Host nicht wie geplant, bleibt die Verfügbarkeit über den zweiten Host erhalten. Für Enterprise-Systeme ist dies ein ganz wichtiger Faktor.

Insgesamt glauben wir daher, dass NVMe 2018 massiv durchstarten wird. Ob das im zweiten oder dritten Quartal sein wird, vermag ich heute noch nicht zu sagen. Auf jeden Fall wird das Thema eine deutlich prominentere Rolle spielen, als es das jetzt schon tut.

SSD-Entwicklung: QLC und NGSFF

  Was dürfen wir bei SSDs generell an Entwicklungen erwarten?

Arenz: Die 3D-Technologie setzt sich industrieweit durch. Wir selbst haben auf dem Flash Memory Summit bereits die 5. Generation unseres V-NANDs angekündigt. Das heißt, die Basiskomponente kommt mit einem Tbit auf dem Chip und 96 Layern. Vorgestellt wurde auch QLC (Quadruple Level Cell) mit vier Bits in einer Zelle, anstatt wie bisher drei Bits. Hier planen wir zunächst Consumer-Produkte, die vermutlich Anfang 2018 auf den Markt kommen werden.

Im Enterprise-Umfeld sind wir momentan mit der Generation 3 unterwegs und stellen in den nächsten zwei, drei Quartalen auf Generation 4 um. Die Kapazitäten verdoppeln sich damit, aus 16 TByte werden demnach im selben Formfaktor 32 TByte.

  Stimmt es, dass Samsung auf der Cloud Expo in Frankfurt ein sehr schnelles und hochkapazitives Speichersystem auf M.3-Basis vorstellt?

Samsungs NGSFF-SSD »PM983« ist es etwas größer als eine M.2-SSD und mit zwei Chip-Reihen bestückt (Bild: Samsung). Samsungs NGSFF-SSD »PM983« ist es etwas größer als eine M.2-SSD und mit zwei Chip-Reihen bestückt (Bild: Samsung). Arenz: Da es noch keine Standardisierung wie bei M.2 gibt, sprechen wir derzeit von NGSFF (Next Generation Standard Form Factor). Diese SSDs stellen wir in der Tat zusammen mit einem Hostsystem auf der Cloud Expo vor. Dies ist gleichzeitig auch unser Highlight auf der Ausstellung. Wir kooperieren hier mit der Firma AIC, die bereits zum Flash Memory Summit mit Mission Peak ein Referenzdesign vorgestellt haben. Dabei handelt es sich um ein 1U-Racksystem mit 36 Slots für unsere NGSFF-SSDs (PM983). Im Maximalausbau kommen wir auf ein halbes PByte (576 TByte) mit bis zu zehn Millionen IOPS und 300 Gbit/s Durchsatz.

Im Unterschied zu bisherigen M.2-Architekturen sind die Drive-Bays jetzt hot-swap-fähig. Zudem lässt sich das System mit 24 DRAM-Slots mit ordentlich Arbeitsspeicher ausstatten und besitzt zwei Dual-Skylake-Prozessoren. Mit dieser Lösung adressieren wir beispielsweise Scale-out-Storage und Content-Distribution-Networks, bei denen viele Daten über Netze transportiert werden sollen, aber auch Datenbankanwendungen mit sehr hohen Daten- und IO-Anforderungen, sowie Big-Data getriebene Echtzeitanalysen.

Unsere PM983-SSD ist im Vergleich zu M.2, etwas breiter, so dass zwei Chip-Reihen nebeneinander passen. Damit bekommen wir auf diesem kleinen Footprint 16 TByte Kapazität untergebracht. Als Produkt wird es die PM983 in Europa ab dem ersten Quartal 2018 geben.

Niedrige Latenzzeiten mit Z-SSD

  Wie man hört, steht noch eine schnelle Flash-Lösung für Enterprise-Systeme an, die Z-SSD.

Arenz: Die Z-SSD wird bei uns SZ985 heißen. Hier kommt eine spezielle Form des V-NAND zum Einsatz. Der Speicher bietet extrem niedrige Latenzzeiten von nur 15 Mikrosekunden. Die Performance wird weit jenseits einer normalen NVMe-SSD angesiedelt sein. Gehen Sie davon aus, dass eine typische Anwendung mit einer Z-SSD zirka zwölfmal schneller reagieren wird.

Wir sprechen hier Enterprise-Systeme an, die für datenintensive Anwendungen entwickelt wurden, wie Echtzeitanalyse, hochperformantes Server-Caching, Machine-Learning und Deep-Learning. Die ersten Storage-OEMs arbeiten bereits mit unserer Z-SSD. Genaueres dürfen wir noch nicht sagen, aber mit Lösungen darf man im ersten Halbjahr 2018 rechnen.

Key-Value-Technologie gegen den Alterungsprozess

  Auf dem Flash Memory Summit wurde auch von einer »Key Value Technology« gesprochen. Was steckt hier genau dahinter?

Arenz: Eine SSD zerlegt die ankommenden Daten in Blöcke, und vor jedem Schreibvorgang wird noch der Zielblock aktiv gelöscht. Dabei stößt der Schreibvorgang zwei Prozessschritte an: Die logische Blockadressierung (LBA) und die physische Blockadressierung (PBA). Dieser Vorgang ist auch für den Alterungsprozess der SSD verantwortlich. Lesen geht immer, während beim Schreiben eine Materialermüdung entsteht.

Unsere Key-Value-Technologie erlaubt dagegen das Speichern von Daten, ohne dass diese zuerst in Blöcke zerlegt werden müssen. Stattdessen wird ein Schlüssel (Key) vergeben, der das zu speichernde Datenobjekt (Value) unabhängig von seiner Größe referenziert und eine Adressierung unabhängig vom Speicherort erlaubt.

Dies wird auch ein Scale-up ermöglichen. Das heißt, Schlüssel und Daten müssen nicht auf dem gleichen Datenträger liegen. Die Vermeidung der LBA- und PBA-Schritte beschleunigt einerseits die Datenzugriffe und erhöht gleichzeitig die Lebensdauer der einzelnen SSDs. Da nicht mehr in Blöcke zerlegt wird und das Schreiben in viele kleine Blöckchen entfällt, minimiert sich auch der sogenannte Write-Amplification-Factor (WAF). Die Höhe des WAF hängt von der Flash-Technologie und der Controller-Intelligenz ab, weswegen in der Praxis unterschiedlich viele Total-Bytes-Written (TBW) zur Verfügung stehen. Generell gilt, je kleiner der WAF, desto besser und desto länger die Lebensdauer der SSD. Mit der Key-Value-Technologie und ein bisschen »Magie unter der Haube« optimieren wir die SSD-Performance signifikant.

  Benötigt die Key-Value-Technologie bestimmte Voraussetzungen?

Arenz: Die Technologie wird Bestandteil der nächsten NVMe-Spezifikation. Hier müssen wir uns aber auch noch bis nächstes Jahr gedulden.