13.07.2018 (Doc Storage)
4.4 von 5, (8 Bewertungen)

High-Performance-Storage im Eigenbau

Leserfrage: Angestachelt von der Tuning-Szene im Gamer-Bereich, fragen wir uns, mit welchem Aufwand man ein, sagen wir, 12-Bay-RAID zu Höchstleistungen bringen kann. Uns ist bewusst, dass wir zwischen IO- und Durchsatzleistung unterscheiden müssten. Hätten Sie spontan ein paar Ideen, wie wir mit Bordmitteln ein hochperformantes Speichersystem Marke Eigenbau zusammenstellen könnten? Beispielsweise in Bezug auf das OS, Schnittstellen, RAID-Controller usw.

Weil Sie es sicher ansprechen werden: Lassen Sie uns, die für den RZ-Betrieb ansonsten wichtige Kriterien wie SLAs, Support und dergleichen einfach mal hintenanstellen.

Antwort Doc Storage:

Wie (fast) alles in der Informatik ist dies kein neuer Gedanke. Ich erinnere mich gut an RAIDs Marke Eigenbau mit mehreren SCSI-Platten (jaja, ich weiß, aber damals das schnellste...) in Holzrähmchen, mit fliegender Verdrahtung und abenteuerlich getunten Controllern. Es ging den Machern damals allerdings nicht um Schnelligkeit, sondern lediglich um die Herstellung von RAID-5-Verläßlichkeit auf einigermaßen bezahlbarem Niveau.

Ihnen (und vielen anderen) geht es hier aber um etwas völlig anderes, nämlich um den höchstmöglichen Durchsatz und die meisten I/Os. Was, wie Sie richtig bemerken, nichts oder nur wenig miteinander zu tun hat. Ich dumpe jetzt einfach mal meine Gedanken...

Den Durchsatz und die I/Os müssen wir optimal verlustfrei an die CPU bringen. Das heißt, der Overhead des genutzten Protokoll, des involvierten Datei- und Betriebssystems müssen möglichst gering sein. Ein Transport von außerhalb des Rechners scheidet aus, da alle im Moment genutzten Anschlussmethoden (FC, SAS oder was auch immer) ein zusätzliches Protokoll ins Spiel bringen und damit für mehr Verlust sorgen. Also eine interne Lösung für den Controller.

Entweder PCI mit NVMe, da wir ja mit Sicherheit Festspeicher verwenden werden. PCIe 4.0, seit kurzem erhältlich, schafft mit 16 Lanes knapp 32 GByte pro Sekunde, NVMe erhöht die Geschwindigkeit vor allem bei parallelen Zugriffen, was die Leistung hier wie gewünscht noch steigern würde. Dazu gesellen sich dann NVMe-fähige M.2-SSDs, die momentan bei 3,5 GByte/s lesend und 2,1 GByte/s schreibend liegen. Für diese müssen wir einen Controller finden, der zwei oder vier dieser Formel-1-Speicher ansprechen kann, da wir diese natürlich noch in RAID-10-Verbund (jaja, ich kann nicht ohne) nehmen werden, um zumindest den Lesedurchsatz deutlich zu erhöhen. Eine Durchsatzverdopplung können wir uns zwar erhoffen, aber nicht erreichen.

Nun zum Betriebssystem bzw. noch wichtiger, das Dateisystem. Wenn man mich fragt (und den Fehler haben Sie ja nun begangen), dann kommt für diesen Versuch nur und ausschließlich ein Betriebssystem in Frage, das ohne Dateisystem, also mit RAW-Nutzung auskommt, also Linux oder ein ernstzunehmendes proprietäres Unix. Damit fällt die Frage nach dem Dateisystem weg, der Overhead genauso.

Wenn Sie also einen entsprechenden Controller (zu Testzwecken tut es ja auch erstmal eine Einkanal-Version) und einen Rechner finden, auf dem Sie das (Controller, SSD, Betriebssystem) installiert bekommen, dann wünsche ich Ihnen viele Späße beim Erreichen der nächsten I/O- und Durchsatz-Höhen.

Die nächste Stufe ist dann das von Ihnen so leichtfertig geforderte 12-Bay-RAID. Dafür müssten wir ein System bauen, das mit sechs parallelen PCIe/NVM-Controllern für jeweils zwei Laufwerke ausgerüstet werden kann. Damit akkumulieren wir im schlimmsten Falle über 40 GByte/s lesend, was auch der modernste Rechner mit PCIe 4.0 auf 16 Lanes nicht unterbringt. Aber wir können ja erst einmal versuchen, die Maschine zu bauen und dann zu sehen, wie nah wir an diese Grenze kommen.

Ihre Frage hat mich jetzt so angespornt, dass ich genau das jetzt mal versuchen werde. In den kommenden Wochen berichte ich in einem Beitrag über die Zwischenstände, und vielleicht können wir dann ja noch einmal Gedanken austauschen...

Dies gilt natürlich auch für alle anderen: Wer Ideen und Anregungen hat, immer her damit.

Gruß
Doc Storage

Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de
Kommentare (2)
16.07.2018 - wmetterhausen

ZFS ist gewiss eine gute Idee. Warum aber dann nicht gleich FreeBSD? Da ist ZFS seit Jahren integriert und man hat auch noch DTrace für feinsinnige Analysen.

Gewiss geht mit Linux alles mögliche aber wenn es schon in Richtung Server geht, könnte man ja auch gleich ein Server-OS heranziehen und nicht die universelle Bastelkiste Linux ;-)

13.07.2018 - ksteinb

Mit Linux und ZFS (ZOL - ZFS on Linux) lässt sich recht gut ein hochperformantes Speichersystem bauen, die Frage ist immer _welche_ Performance wirklich gefordert ist. Mit Standardfestplatten ist die Grenze immer die IOPS der einzelnen Festplatten. Etwas kaschieren lässt sich das mit Schreib- und Lesecache. Da bietet ZFS auch gute Unterstützung.

Aber: Finger weg von RAID Controllern. Für ZFS sind HBA's definitiv besser geeignet.

Übrigens lassen sich damit auch recht gut hochverfügbare Storages bauen (2 Köpfe, erfordert dann natürlich SAS Shelfes/Platten).

Wenn Sie genauer wissen wollen wie man das macht einfach mal nach "Steinberger LMU" googeln, da finden Sie meine Kontaktdaten.


Mehr von Doc. tec. Storage 12.04.2019 Dateisysteme für den PByte-Bereich

Datenberge jenseits des PByte-Bereichs, Cloud-Anbindungen und Analytics-Szenarien stellen Dateiysteme vor neue Herausforderungen. Der Markt bietet einige Optionen wie GPFS, Gluster FS, OneFS oder QF2. Worauf gilt es zu achten?


05.04.2019 Neuordnung des Storage-Tiering

Nachdem sich Flash und SSDs mittlerweile auch in mehrere Leistungsklassen unterteilen, steht die Technik nicht mehr nur für Tier 0. 15k-HDDs scheinen vor dem Aus zu stehen. Gilt dies auch für alle SAS-Platten? Wie sieht die Neuordnung des Storage-Tiering aktuell aus?


15.03.2019 30 Jahre World Wide Web: Was gibt es zu feiern?

Das World Wide Web feiert seinen 30. Geburtstag. Ohne dem Internet ist unser heutiges Leben nicht mehr vorstellbar. Für Doc Storage hat das Netz aber auch genug Schattenseiten. An Regulierungen bzw. an das vom Erfinder erhoffte bessere Internet, glaubt er nicht.


08.03.2019 Datenanordnung im RAID 10 mit 8 Platten

In einem Server wird ein RAID 10 mit acht Festplatten unter Windows 2008 R2 betrieben. Nun ist ein Laufwerk ausgefallen. Da sich nur wenige Daten auf den HDDs befinden, besteht die Möglichkeit, dass die defekte Platte eventuell gar keine Daten enthält?


22.02.2019 Welcher RAID-Level für welche Anwendung?

Gibt es eigentliche eine Faustregel, welches RAID-Level für welche Anwendung am besten geeignet ist? Ich denke da zum Beispiel an Datenbanken mit sehr vielen Zugriffen bei relativ kleinen Datenmengen oder an Webserver und als Extrem auf der anderen Seite Bild-Datenbanken, Audio-Server beim Rundfunk, Video-Archive mit sehr hohen Datenvolumen.


15.02.2019 Was sagt DWPD über SSDs aus?

Im Zusammenhang mit (Enterprise-)SSDs wird oft die Qualitätsgröße DWPD (Drive Writes Per Day) genutzt. Meist wird die Angabe auch für einen Zeitraum von fünf Jahren spezifiziert. Was sagt DWPD genau aus und mit welcher Standard-Lebensdauer darf man rechnen?

powered by
Boston Server & Storage Solutions Datacore Software
Fujitsu Technology Solutions GmbH Seagate Technology
N-TEC GmbH FAST LTA AG