13.07.2018 (Doc Storage)
4.4 von 5, (8 Bewertungen)

High-Performance-Storage im Eigenbau

Leserfrage: Angestachelt von der Tuning-Szene im Gamer-Bereich, fragen wir uns, mit welchem Aufwand man ein, sagen wir, 12-Bay-RAID zu Höchstleistungen bringen kann. Uns ist bewusst, dass wir zwischen IO- und Durchsatzleistung unterscheiden müssten. Hätten Sie spontan ein paar Ideen, wie wir mit Bordmitteln ein hochperformantes Speichersystem Marke Eigenbau zusammenstellen könnten? Beispielsweise in Bezug auf das OS, Schnittstellen, RAID-Controller usw.

Weil Sie es sicher ansprechen werden: Lassen Sie uns, die für den RZ-Betrieb ansonsten wichtige Kriterien wie SLAs, Support und dergleichen einfach mal hintenanstellen.

Antwort Doc Storage:

Wie (fast) alles in der Informatik ist dies kein neuer Gedanke. Ich erinnere mich gut an RAIDs Marke Eigenbau mit mehreren SCSI-Platten (jaja, ich weiß, aber damals das schnellste...) in Holzrähmchen, mit fliegender Verdrahtung und abenteuerlich getunten Controllern. Es ging den Machern damals allerdings nicht um Schnelligkeit, sondern lediglich um die Herstellung von RAID-5-Verläßlichkeit auf einigermaßen bezahlbarem Niveau.

Ihnen (und vielen anderen) geht es hier aber um etwas völlig anderes, nämlich um den höchstmöglichen Durchsatz und die meisten I/Os. Was, wie Sie richtig bemerken, nichts oder nur wenig miteinander zu tun hat. Ich dumpe jetzt einfach mal meine Gedanken...

Den Durchsatz und die I/Os müssen wir optimal verlustfrei an die CPU bringen. Das heißt, der Overhead des genutzten Protokoll, des involvierten Datei- und Betriebssystems müssen möglichst gering sein. Ein Transport von außerhalb des Rechners scheidet aus, da alle im Moment genutzten Anschlussmethoden (FC, SAS oder was auch immer) ein zusätzliches Protokoll ins Spiel bringen und damit für mehr Verlust sorgen. Also eine interne Lösung für den Controller.

Entweder PCI mit NVMe, da wir ja mit Sicherheit Festspeicher verwenden werden. PCIe 4.0, seit kurzem erhältlich, schafft mit 16 Lanes knapp 32 GByte pro Sekunde, NVMe erhöht die Geschwindigkeit vor allem bei parallelen Zugriffen, was die Leistung hier wie gewünscht noch steigern würde. Dazu gesellen sich dann NVMe-fähige M.2-SSDs, die momentan bei 3,5 GByte/s lesend und 2,1 GByte/s schreibend liegen. Für diese müssen wir einen Controller finden, der zwei oder vier dieser Formel-1-Speicher ansprechen kann, da wir diese natürlich noch in RAID-10-Verbund (jaja, ich kann nicht ohne) nehmen werden, um zumindest den Lesedurchsatz deutlich zu erhöhen. Eine Durchsatzverdopplung können wir uns zwar erhoffen, aber nicht erreichen.

Nun zum Betriebssystem bzw. noch wichtiger, das Dateisystem. Wenn man mich fragt (und den Fehler haben Sie ja nun begangen), dann kommt für diesen Versuch nur und ausschließlich ein Betriebssystem in Frage, das ohne Dateisystem, also mit RAW-Nutzung auskommt, also Linux oder ein ernstzunehmendes proprietäres Unix. Damit fällt die Frage nach dem Dateisystem weg, der Overhead genauso.

Wenn Sie also einen entsprechenden Controller (zu Testzwecken tut es ja auch erstmal eine Einkanal-Version) und einen Rechner finden, auf dem Sie das (Controller, SSD, Betriebssystem) installiert bekommen, dann wünsche ich Ihnen viele Späße beim Erreichen der nächsten I/O- und Durchsatz-Höhen.

Die nächste Stufe ist dann das von Ihnen so leichtfertig geforderte 12-Bay-RAID. Dafür müssten wir ein System bauen, das mit sechs parallelen PCIe/NVM-Controllern für jeweils zwei Laufwerke ausgerüstet werden kann. Damit akkumulieren wir im schlimmsten Falle über 40 GByte/s lesend, was auch der modernste Rechner mit PCIe 4.0 auf 16 Lanes nicht unterbringt. Aber wir können ja erst einmal versuchen, die Maschine zu bauen und dann zu sehen, wie nah wir an diese Grenze kommen.

Ihre Frage hat mich jetzt so angespornt, dass ich genau das jetzt mal versuchen werde. In den kommenden Wochen berichte ich in einem Beitrag über die Zwischenstände, und vielleicht können wir dann ja noch einmal Gedanken austauschen...

Dies gilt natürlich auch für alle anderen: Wer Ideen und Anregungen hat, immer her damit.

Gruß
Doc Storage

Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de
Kommentare (2)
16.07.2018 - wmetterhausen

ZFS ist gewiss eine gute Idee. Warum aber dann nicht gleich FreeBSD? Da ist ZFS seit Jahren integriert und man hat auch noch DTrace für feinsinnige Analysen.

Gewiss geht mit Linux alles mögliche aber wenn es schon in Richtung Server geht, könnte man ja auch gleich ein Server-OS heranziehen und nicht die universelle Bastelkiste Linux ;-)

13.07.2018 - ksteinb

Mit Linux und ZFS (ZOL - ZFS on Linux) lässt sich recht gut ein hochperformantes Speichersystem bauen, die Frage ist immer _welche_ Performance wirklich gefordert ist. Mit Standardfestplatten ist die Grenze immer die IOPS der einzelnen Festplatten. Etwas kaschieren lässt sich das mit Schreib- und Lesecache. Da bietet ZFS auch gute Unterstützung.

Aber: Finger weg von RAID Controllern. Für ZFS sind HBA's definitiv besser geeignet.

Übrigens lassen sich damit auch recht gut hochverfügbare Storages bauen (2 Köpfe, erfordert dann natürlich SAS Shelfes/Platten).

Wenn Sie genauer wissen wollen wie man das macht einfach mal nach "Steinberger LMU" googeln, da finden Sie meine Kontaktdaten.


Mehr von Doc. tec. Storage 15.02.2019 Was sagt DWPD über SSDs aus?

Im Zusammenhang mit (Enterprise-)SSDs wird oft die Qualitätsgröße DWPD (Drive Writes Per Day) genutzt. Meist wird die Angabe auch für einen Zeitraum von fünf Jahren spezifiziert. Was sagt DWPD genau aus und mit welcher Standard-Lebensdauer darf man rechnen?


08.02.2019 Unterschiede der Performance-States von SSDs

Gängige Meinung: SSDs sind schnell. In der Praxis gibt es aber dann doch einige Unterschiede, so sind vielen die verschiedenen Performance-States von SSDs und Flash-Speichern nicht bekannt: FOB, steady, burst and transition. Was steckt genau dahinter?


01.02.2019 BSI empfiehlt 200-km-Distanz – 200 km ERNSTHAFT!?

Kurz vor Weihnachten veröffentlichte das BSI neue Kriterien für georedundante RZs. Darin wird der bisher empfohlene Mindestabstand von fünf auf 200 Kilometer hochgesetzt. Aus Praxissicht laut Doc Storage »vollkommener Blödsinn«.


31.01.2019 Nervfaktor digitale Transformation – ein Rant

Die digitale Transformation bzw. Digitalisierung verfolgt uns nun schon geraume Zeit. Mit dem Faktor Mensch kommt nun nochmal ein neues Trendthema hinzu. Doc Storage hat hier eine klare Meinung: »alles Blödsinn – es nervt«. Nichts von dem, was heute diskutiert wird, ist neu und Menschen waren schon immer der Kern eines jeden Geschäftsbetriebs – selbst in der IT.


25.01.2019 SSDs: Was ist mit den Schreibzyklen, wenn SSDs fast voll sind?

Moderne SSDs sorgen mit der Wear-Leveling-Funktion automatisch dafür, dass möglichst gleichmäßig über alle Sektoren geschrieben wird. Wie verhält es sich mit den spezifizierten Schreibzyklen, wenn die SSD nahezu voll ist?


18.01.2019 Wie sinnvoll sind Benchmarks und Performance-Tests?

Welchen Stellenwert haben Benchmarks und Performance-Tests (z.B. SPC-1 und SPC-2) bei der Anschaffung von Storage-Systemen? Man hört ja, dass sich Firmen die Anforderungen nur noch vertraglich garantieren lassen. Ist das wirklich ein gangbarer Weg?

powered by
Boston Server & Storage Solutions Datacore Software
Fujitsu Technology Solutions GmbH Unitrends
N-TEC GmbH FAST LTA AG