08.10.2010 (Doc Storage)
3.3 von 5, (11 Bewertungen)

Klassisches RAID am Ende?

Leserfrage: Ein TByte, zwei TByte, demnächst wird es Laufwerke mit drei, vier oder mehr TByte Speicherplatz geben. Schon heute dauert die Wiederherstellung einer ausgefallenen Festplatte unter RAID 5 oder RAID 6 zwischen einem und zwei Tagen. Da sich die Schnittstellen auf absehbare Zeit nicht ändern werden – wie sollen wir in Zukunft mit drei oder vier Tagen Wiederherstellungszeit umgehen? Die »klassischen« RAID-Lösungen können hier doch nicht mehr helfen, oder?

Antwort Doc Storage:

Das ist prinzipiell richtig. Noch in diesem Jahr erwarten wir Platten mit weit mehr als zwei TByte Fassungsvermögen. Solange diese mit der herkömmlichen SATA-Schnittstelle der zweiten Generation, also mit drei Gbit/s Bandbreite, ausgestattet sind, vervielfachen sich die Wiederherstellungszeiten. Erst mit der SATA-Schnittstelle der dritten Generation und den dann in Aussicht stehenden sechs Gbit/s können die Transferzeiten wieder etwas eingedämmt werden.

Aber was können wir in der Zwischenzeit tun? Nun, zunächst einmal die Ruhe bewahren. RAID 6 wurde eingeführt, um den doppelten Plattenausfall in einer RAID-Gruppe abzufangen. Weil die SATA-Laufwerke seit ihrer Einführung allerdings wesentlich zuverlässiger geworden sind und damit die Wahrscheinlichkeit eines doppelten Ausfalles auf das Niveau von FC-Platten gesunken ist, können wir uns heute deutlich längere Wiederherstellungszeiten unter Eingehen desselben Risikos leisten. Leider gibt es heute keine valide Alternative.

Natürlich könnten die Hersteller ein Triple-Parity-RAID einführen, bei dem nun drei Platten parallel ausfallen könnten. Aber wie wahrscheinlich ist das wirklich? In den allermeisten Fällen handelt es sich bereits bei dem doppelten Ausfallszenario nicht mehr um Fertigungsfehler der Disk-Hersteller oder »wackelige« Drives, sondern um Stromversorgungs- oder Schnittstellenfehler der Array-Produzenten. Da hilft dann in den meisten Fällen auch kein Anlegen von noch so vielen Paritäten, da muss schlichtweg das Speichersystem ausgetauscht werden.

Auch das Verteilen von doppelt geschriebenen Daten über das gesamte System, also quasi ein »Super-RAID 10«, hat sich in der Praxis als gefährlich erwiesen. Sollten hier zwei Platten irgendwo im Array ausfallen, die zufällig jede eine Kopie desselben Tracks speichern, ist dieser unwiederbringlich verloren.

Fazit: Momentan heißt es auf die immer noch wachsende Qualität der SATA-Platten zu vertrauen und auf die Schnittstellen der nächsten Generation zu hoffen. Diese werden uns zumindest die Wiederherstellungszeiten deutlich verkürzen. Und noch eine Technologie lauert im Hintergrund, die wir alle momentan noch nicht auf dem Schirm haben. SSDs werden von Tag zu Tag billiger und von Quartal zu Quartal preiswerter. In zwei bis drei Jahren dürfte sich dann auch der Endanwender oder Betreiber kleinerer Arrays erstmals die Frage stellen, ob er überhaupt noch Festplatten einsetzen soll. Die Wiederherstellungszeit bei SSDs dürfte sich dann nur noch bei Fragmenten der heutigen Wartezeit einpendeln.

Gruß
Doc Storage

Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de

Mehr von Doc. tec. Storage 18.06.2021 Zuverlässigkeit von Bändern und Tape-Librarys

Hersteller und Anbieter sprechen von einer Tape-Renaissance, von einer ausgereiften Technologie und dergleichen. Wie ist es bei Tape-Librarys mit der Mechanik? Früher gab es da oft oder regelmäßig Probleme. Auch haben sich Tapes immer wieder nicht auslesen lassen. Wie sind die Erfahrungen mit der Zuverlässigkeit von Bändern heute?


28.05.2021 Hardware- vs. Software-RAID: Was sind die Unterschiede?

In einer der letzten Storage-Veranstaltungen ging es darum, dass es keinen Sinn mehr mache auf Hardware-RAID zu setzen. Gehört dem Software-RAID wirklich die Zukunft? Welches sind die jeweiligen Vor- und Nachteile und auf was kommt es an?


07.05.2021 Was versteht man unter Dual-Layer Erasure-Coding?

Das Erasure-Coding ist bekannt und wurde auch schon mehrmals beschrieben. Nun sind wir zuletzt mehrfach auf den Begriff Dual-Layer Erasure-Coding gestoßen. Was verbirgt sich dahinter bzw. was sollte man dazu wissen?


19.03.2021 Backup-Konzept: Was sind die Türme von Hanoi?

Die Türme von Hanoi sind eine eher selten eingesetzte Datensicherungsstrategie. Was sind die Vorteile und warum hat sich das Konzept nicht durchgesetzt? Doc Storage erklärt den komplexen Backup-Plan und warum es gar nicht abwegig ist, darüber nachzudenken.


19.02.2021 HDD/SSD vs. Interface: Wer ist der Flaschenhals im NAS?

Ein NAS-System mit SSDs aufzurüsten bringt zusätzliche Performance. Sollte es zumindest. Wie verhält es sich mit einer SATA-3-Schnittstelle, avanciert diese nicht zum Flaschenhals und bremst die schnellen Flash-Speicher aus?


05.02.2021 Was ist ein Data-Mover?

Was ist eigentlich ein Data-Mover? Wird oft in der Funktionsliste genannt, meist bei Disk-Subsystemen, aber auch in anderem Kontext. Überträgt man damit einfach nur größere Mengen an Daten oder steckt mehr dahinter?

powered by
N-TEC GmbH FAST LTA
Cloudian Tech Data IBM Storage Hub
Microchip
Folgen Sie speicherguide.de auch auf unseren Social-Media-Kanälen
Folgen Sie uns auf Facebook Folgen Sie uns auf Pinterest Folgen Sie uns auf YouTube
Folgen Sie uns auf Twitter Folgen Sie uns auf Linkedin speicherguide.de-News per RSS-Feed