13.07.2018 (Doc Storage)
4.5 von 5, (6 Bewertungen)

High-Performance-Storage im Eigenbau

Leserfrage: Angestachelt von der Tuning-Szene im Gamer-Bereich, fragen wir uns, mit welchem Aufwand man ein, sagen wir, 12-Bay-RAID zu Höchstleistungen bringen kann. Uns ist bewusst, dass wir zwischen IO- und Durchsatzleistung unterscheiden müssten. Hätten Sie spontan ein paar Ideen, wie wir mit Bordmitteln ein hochperformantes Speichersystem Marke Eigenbau zusammenstellen könnten? Beispielsweise in Bezug auf das OS, Schnittstellen, RAID-Controller usw.

Weil Sie es sicher ansprechen werden: Lassen Sie uns, die für den RZ-Betrieb ansonsten wichtige Kriterien wie SLAs, Support und dergleichen einfach mal hintenanstellen.

Antwort Doc Storage:

Wie (fast) alles in der Informatik ist dies kein neuer Gedanke. Ich erinnere mich gut an RAIDs Marke Eigenbau mit mehreren SCSI-Platten (jaja, ich weiß, aber damals das schnellste...) in Holzrähmchen, mit fliegender Verdrahtung und abenteuerlich getunten Controllern. Es ging den Machern damals allerdings nicht um Schnelligkeit, sondern lediglich um die Herstellung von RAID-5-Verläßlichkeit auf einigermaßen bezahlbarem Niveau.

Ihnen (und vielen anderen) geht es hier aber um etwas völlig anderes, nämlich um den höchstmöglichen Durchsatz und die meisten I/Os. Was, wie Sie richtig bemerken, nichts oder nur wenig miteinander zu tun hat. Ich dumpe jetzt einfach mal meine Gedanken...

Anzeige
Den Durchsatz und die I/Os müssen wir optimal verlustfrei an die CPU bringen. Das heißt, der Overhead des genutzten Protokoll, des involvierten Datei- und Betriebssystems müssen möglichst gering sein. Ein Transport von außerhalb des Rechners scheidet aus, da alle im Moment genutzten Anschlussmethoden (FC, SAS oder was auch immer) ein zusätzliches Protokoll ins Spiel bringen und damit für mehr Verlust sorgen. Also eine interne Lösung für den Controller.

Entweder PCI mit NVMe, da wir ja mit Sicherheit Festspeicher verwenden werden. PCIe 4.0, seit kurzem erhältlich, schafft mit 16 Lanes knapp 32 GByte pro Sekunde, NVMe erhöht die Geschwindigkeit vor allem bei parallelen Zugriffen, was die Leistung hier wie gewünscht noch steigern würde. Dazu gesellen sich dann NVMe-fähige M.2-SSDs, die momentan bei 3,5 GByte/s lesend und 2,1 GByte/s schreibend liegen. Für diese müssen wir einen Controller finden, der zwei oder vier dieser Formel-1-Speicher ansprechen kann, da wir diese natürlich noch in RAID-10-Verbund (jaja, ich kann nicht ohne) nehmen werden, um zumindest den Lesedurchsatz deutlich zu erhöhen. Eine Durchsatzverdopplung können wir uns zwar erhoffen, aber nicht erreichen.

Nun zum Betriebssystem bzw. noch wichtiger, das Dateisystem. Wenn man mich fragt (und den Fehler haben Sie ja nun begangen), dann kommt für diesen Versuch nur und ausschließlich ein Betriebssystem in Frage, das ohne Dateisystem, also mit RAW-Nutzung auskommt, also Linux oder ein ernstzunehmendes proprietäres Unix. Damit fällt die Frage nach dem Dateisystem weg, der Overhead genauso.

Wenn Sie also einen entsprechenden Controller (zu Testzwecken tut es ja auch erstmal eine Einkanal-Version) und einen Rechner finden, auf dem Sie das (Controller, SSD, Betriebssystem) installiert bekommen, dann wünsche ich Ihnen viele Späße beim Erreichen der nächsten I/O- und Durchsatz-Höhen.

Die nächste Stufe ist dann das von Ihnen so leichtfertig geforderte 12-Bay-RAID. Dafür müssten wir ein System bauen, das mit sechs parallelen PCIe/NVM-Controllern für jeweils zwei Laufwerke ausgerüstet werden kann. Damit akkumulieren wir im schlimmsten Falle über 40 GByte/s lesend, was auch der modernste Rechner mit PCIe 4.0 auf 16 Lanes nicht unterbringt. Aber wir können ja erst einmal versuchen, die Maschine zu bauen und dann zu sehen, wie nah wir an diese Grenze kommen.

Ihre Frage hat mich jetzt so angespornt, dass ich genau das jetzt mal versuchen werde. In den kommenden Wochen berichte ich in einem Beitrag über die Zwischenstände, und vielleicht können wir dann ja noch einmal Gedanken austauschen...

Dies gilt natürlich auch für alle anderen: Wer Ideen und Anregungen hat, immer her damit.

Gruß
Doc Storage

Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de
Kommentare (2)
16.07.2018 - wmetterhausen

ZFS ist gewiss eine gute Idee. Warum aber dann nicht gleich FreeBSD? Da ist ZFS seit Jahren integriert und man hat auch noch DTrace für feinsinnige Analysen.

Gewiss geht mit Linux alles mögliche aber wenn es schon in Richtung Server geht, könnte man ja auch gleich ein Server-OS heranziehen und nicht die universelle Bastelkiste Linux ;-)

13.07.2018 - ksteinb

Mit Linux und ZFS (ZOL - ZFS on Linux) lässt sich recht gut ein hochperformantes Speichersystem bauen, die Frage ist immer _welche_ Performance wirklich gefordert ist. Mit Standardfestplatten ist die Grenze immer die IOPS der einzelnen Festplatten. Etwas kaschieren lässt sich das mit Schreib- und Lesecache. Da bietet ZFS auch gute Unterstützung.

Aber: Finger weg von RAID Controllern. Für ZFS sind HBA's definitiv besser geeignet.

Übrigens lassen sich damit auch recht gut hochverfügbare Storages bauen (2 Köpfe, erfordert dann natürlich SAS Shelfes/Platten).

Wenn Sie genauer wissen wollen wie man das macht einfach mal nach "Steinberger LMU" googeln, da finden Sie meine Kontaktdaten.


Mehr von Doc. tec. Storage 17.08.2018 Wie sinnvoll sind Objektspeicher mit NAS-Funktion?

Objektspeicher sind seit einiger Zeit nun auch mit NAS-Funktionalitäten erhältlich. Lassen sich solche Konfigurationen in der Praxis sinnvoll einsetzen und wie schaut es mit der Performance und Leistungswerten aus?


03.08.2018 Was können die Ethernet-Protokolle RoCE und iWARP?

Es gibt zwei neue RDMA-Protokolle: RoCE und iWARP. Hier stellt sich die Frage, was machen die und was sollte man als »normaler ITler« darüber wissen? Doc Storage erklärt die Funktionsweise der Ethernet-Protokolle, gibt aber zu bedenken, dass beide noch neu sind und man vielleicht noch ein wenig warten sollte.


20.07.2018 Storage mit KI: Wie ist hier der Stand?

Man liest ja in letzter Zeit einiges über Storage-Systeme mit eingebauter Intelligenz. Betrifft dies nur das Placement der Daten (Tier-Klassen), Objekt-Storage oder steckt da eine neue brauchbare Idee bezüglich Künstlicher Intelligenz (KI) dahinter?


13.07.2018 High-Performance-Storage im Eigenbau

Mit welchem Aufwand könnte man ein RAID-System zu Höchstleistungen bringen? Wie lässt sich mit Bordmitteln ein hochperformantes Speichersystem Marke Eigenbau zusammenstellen? Eine Frage, die unseren Doc durchaus angespornt hat…


22.06.2018 Was ist iSER im Vergleich zu iSCSI und FCoE?

Die SNIA vergleicht in einem Webcast iSCSI mit FCoE und iSER. Was bitte ist iSER? Ist das eine iSCSI-Erweiterung oder eine eigenständige Technologie? Ab wann ist hier mit Produkten zu rechnen?


15.06.2018 Was ist ein Host-Memory-Buffer (HMB)?

HMB steht für Host-Memory-Buffer. Was ist das genau? Neue M.2-SSDs erreichen damit angeblich schnelle Transferraten und hohe IOPS. Kann man HMB losgelöst von NVMe betrachten oder gehören die beiden Techniken zusammen?

powered by
TIM DCP Datacore Software
N-TEC GmbH Unitrends
Fujitsu Technology Solutions GmbH