13.07.2018 (Doc Storage)
4.4 von 5, (8 Bewertungen)

High-Performance-Storage im Eigenbau

Leserfrage: Angestachelt von der Tuning-Szene im Gamer-Bereich, fragen wir uns, mit welchem Aufwand man ein, sagen wir, 12-Bay-RAID zu Höchstleistungen bringen kann. Uns ist bewusst, dass wir zwischen IO- und Durchsatzleistung unterscheiden müssten. Hätten Sie spontan ein paar Ideen, wie wir mit Bordmitteln ein hochperformantes Speichersystem Marke Eigenbau zusammenstellen könnten? Beispielsweise in Bezug auf das OS, Schnittstellen, RAID-Controller usw.

Weil Sie es sicher ansprechen werden: Lassen Sie uns, die für den RZ-Betrieb ansonsten wichtige Kriterien wie SLAs, Support und dergleichen einfach mal hintenanstellen.

Antwort Doc Storage:

Wie (fast) alles in der Informatik ist dies kein neuer Gedanke. Ich erinnere mich gut an RAIDs Marke Eigenbau mit mehreren SCSI-Platten (jaja, ich weiß, aber damals das schnellste...) in Holzrähmchen, mit fliegender Verdrahtung und abenteuerlich getunten Controllern. Es ging den Machern damals allerdings nicht um Schnelligkeit, sondern lediglich um die Herstellung von RAID-5-Verläßlichkeit auf einigermaßen bezahlbarem Niveau.

Ihnen (und vielen anderen) geht es hier aber um etwas völlig anderes, nämlich um den höchstmöglichen Durchsatz und die meisten I/Os. Was, wie Sie richtig bemerken, nichts oder nur wenig miteinander zu tun hat. Ich dumpe jetzt einfach mal meine Gedanken...

Den Durchsatz und die I/Os müssen wir optimal verlustfrei an die CPU bringen. Das heißt, der Overhead des genutzten Protokoll, des involvierten Datei- und Betriebssystems müssen möglichst gering sein. Ein Transport von außerhalb des Rechners scheidet aus, da alle im Moment genutzten Anschlussmethoden (FC, SAS oder was auch immer) ein zusätzliches Protokoll ins Spiel bringen und damit für mehr Verlust sorgen. Also eine interne Lösung für den Controller.

Entweder PCI mit NVMe, da wir ja mit Sicherheit Festspeicher verwenden werden. PCIe 4.0, seit kurzem erhältlich, schafft mit 16 Lanes knapp 32 GByte pro Sekunde, NVMe erhöht die Geschwindigkeit vor allem bei parallelen Zugriffen, was die Leistung hier wie gewünscht noch steigern würde. Dazu gesellen sich dann NVMe-fähige M.2-SSDs, die momentan bei 3,5 GByte/s lesend und 2,1 GByte/s schreibend liegen. Für diese müssen wir einen Controller finden, der zwei oder vier dieser Formel-1-Speicher ansprechen kann, da wir diese natürlich noch in RAID-10-Verbund (jaja, ich kann nicht ohne) nehmen werden, um zumindest den Lesedurchsatz deutlich zu erhöhen. Eine Durchsatzverdopplung können wir uns zwar erhoffen, aber nicht erreichen.

Nun zum Betriebssystem bzw. noch wichtiger, das Dateisystem. Wenn man mich fragt (und den Fehler haben Sie ja nun begangen), dann kommt für diesen Versuch nur und ausschließlich ein Betriebssystem in Frage, das ohne Dateisystem, also mit RAW-Nutzung auskommt, also Linux oder ein ernstzunehmendes proprietäres Unix. Damit fällt die Frage nach dem Dateisystem weg, der Overhead genauso.

Wenn Sie also einen entsprechenden Controller (zu Testzwecken tut es ja auch erstmal eine Einkanal-Version) und einen Rechner finden, auf dem Sie das (Controller, SSD, Betriebssystem) installiert bekommen, dann wünsche ich Ihnen viele Späße beim Erreichen der nächsten I/O- und Durchsatz-Höhen.

Die nächste Stufe ist dann das von Ihnen so leichtfertig geforderte 12-Bay-RAID. Dafür müssten wir ein System bauen, das mit sechs parallelen PCIe/NVM-Controllern für jeweils zwei Laufwerke ausgerüstet werden kann. Damit akkumulieren wir im schlimmsten Falle über 40 GByte/s lesend, was auch der modernste Rechner mit PCIe 4.0 auf 16 Lanes nicht unterbringt. Aber wir können ja erst einmal versuchen, die Maschine zu bauen und dann zu sehen, wie nah wir an diese Grenze kommen.

Ihre Frage hat mich jetzt so angespornt, dass ich genau das jetzt mal versuchen werde. In den kommenden Wochen berichte ich in einem Beitrag über die Zwischenstände, und vielleicht können wir dann ja noch einmal Gedanken austauschen...

Dies gilt natürlich auch für alle anderen: Wer Ideen und Anregungen hat, immer her damit.

Gruß
Doc Storage

Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de
Kommentare (2)
16.07.2018 - wmetterhausen

ZFS ist gewiss eine gute Idee. Warum aber dann nicht gleich FreeBSD? Da ist ZFS seit Jahren integriert und man hat auch noch DTrace für feinsinnige Analysen.

Gewiss geht mit Linux alles mögliche aber wenn es schon in Richtung Server geht, könnte man ja auch gleich ein Server-OS heranziehen und nicht die universelle Bastelkiste Linux ;-)

13.07.2018 - ksteinb

Mit Linux und ZFS (ZOL - ZFS on Linux) lässt sich recht gut ein hochperformantes Speichersystem bauen, die Frage ist immer _welche_ Performance wirklich gefordert ist. Mit Standardfestplatten ist die Grenze immer die IOPS der einzelnen Festplatten. Etwas kaschieren lässt sich das mit Schreib- und Lesecache. Da bietet ZFS auch gute Unterstützung.

Aber: Finger weg von RAID Controllern. Für ZFS sind HBA's definitiv besser geeignet.

Übrigens lassen sich damit auch recht gut hochverfügbare Storages bauen (2 Köpfe, erfordert dann natürlich SAS Shelfes/Platten).

Wenn Sie genauer wissen wollen wie man das macht einfach mal nach "Steinberger LMU" googeln, da finden Sie meine Kontaktdaten.


Mehr von Doc. tec. Storage 14.06.2019 Ein Jahr DSGVO: Aufwand unerträglich hoch

Kolumne: Zur Einführung der DSGVO hat Doc Storage mächtig Dampf abgelassen. Ein Jahr später lässt kaum ein Verband ein gutes Haar an der Datenschutz-Grundverordnung. Der Aufwand für Firmen und IT-Abteilungen sei unerträglich hoch.


07.06.2019 Welchen Flash für welche Anwendung?

Vor rund sechs Jahren schickten sich Flash-Speicher an, sich in Computern und Storage-Systemen zu etablieren. Damals galten die Lösungen aber noch als proprietär. Wo steht die Technik heute und welcher Flash eignet sich für welchen Einsatzzweck?


17.05.2019 NAS-Caching oder Tiering für VMs multiple Zugriffe?

In einer Lehrumgebung werden virtuellen Maschinen auf einem NAS mit 10GbE-Anbindung gespeichert. Nachdem eine Erweiterung mit NVMe-Flash ansteht, stellt sich die Frage, ob eine Caching- oder eine Tiering-Konfiguration die sinnvollere Wahl ist?


10.05.2019 Wird Flash nun auch zum Backup-Medium?

Flash wird zunehmend auch für Backup interessant. Der Geschwindigkeitsvorteil soll die Dauer der Sicherung wie auch der Wiederherstellung reduzieren. Macht dies in der Praxis bereits Sinn – auch aus Kostensicht?


03.05.2019 Unterschied zwischen Active/Active und Active/Passive

Beim Thema Hochverfügbarkeit unterscheidet man zwischen Konfigurationen, die Active/Active bzw. Active/Passive agieren. Was ist genau der Unterschied und für welche Szenarien empfehlen sich die beiden Möglichkeiten? Welche Cluster-Architektur bietet hinsichtlich Skalierbarkeit mehr Spielraum für zukünftigen Lastzunahmen?


26.04.2019 Dateisysteme für den PByte-Bereich

Datenberge jenseits des PByte-Bereichs, Cloud-Anbindungen und Analytics-Szenarien stellen Dateiysteme vor neue Herausforderungen. Der Markt bietet einige Optionen wie GPFS, Gluster FS, OneFS oder QF2. Worauf gilt es zu achten? Update zu CephFS und ZFS.

powered by
Boston Server & Storage Solutions Datacore Software
Itiso GmbH Seagate Technology
N-TEC GmbH FAST LTA AG
Fujitsu Technology Solutions GmbH Pure Storage