13.04.2017 (Doc Storage)
4.2 von 5, (9 Bewertungen)

Datenverfügbarkeit: Was bedeuten die Neunen?

  • Inhalt dieses Artikels
  • Zuverlässigkeit kann viel bedeuten
  • 100-prozentige Zuverlässigkeit gibt es nicht

Leserfrage: Die meisten Hersteller werben heute mit ich-weiß-nicht wie vielen Neunen an Zuverlässigkeit und Datenverfügbarkeit. Auf was bezieht sich diese »Zuverlässigkeit« genau und welche Informationen kann der »normale« Kunde aus diesen Angaben ziehen?

Antwort Doc Storage:

Ja, die meisten Hersteller von Speichersystemen überbieten sich heute in den Angaben, wie zuverlässig ihre Produkte sind, und hängen immer mehr Neunen an die »99« dran. Hier erst einmal zur Klarstellung, was welche Zahl bedeutet, basierend auf dem »klassischen IBM-Jahr«, also 365,25 Tagen, gerundet auf ganze Sekunden:

  • 99 Prozent: 361 Tage 14 Stunden 20 Minuten 25 Sekunden Betrieb / 3 Tage 15 Stunden 39 Minuten 35 Sekunden Ausfall
  • 99,9 Prozent: 364 Tage 21 Stunden 14 Minuten 2 Sekunden Betrieb / 8 Stunden 42 Minuten Ausfall
  • 99,99 Prozent: 65 Tage 5 Stunden 7 Minuten 24 Sekunden Betrieb / 52 Minuten 36 Sekunden Ausfall
  • 99,999 Prozent: 365 Tage 5 Stunden 54 Minuten 44 Sekunden Betrieb / 5 Minuten 16 Sekunden Ausfall
  • 99,9999 Prozent: 365 Tage 5 Stunden 59 Minuten 28 Sekunden Betrieb / 32 Sekunden Ausfall

Und so weiter. Man sieht, dass ab 99,9999 Prozent Verfügbarkeit diese im Bereich von unter einer Minute Ausfall im Jahr liegt, alles darunter also sowieso nur noch ein mathematisches Spielchen ist.

Zuverlässigkeit kann viel bedeuten

Die von den Herstellern angegebene »Zuverlässigkeit« ihrer Systeme kann viele Dinge bedeuten. Entweder die Zuverlässigkeit der blanken Hardware, das heißt die Betrachtung jedes einzelnen Bauteiles, seiner Redundanz, seiner mechanischen, thermischen und elektrischen Zuverlässigkeit. Diese Werte werden dann je nach System addiert, gemittelt und ergeben dann zusammen mit der durchschnittlichen Verweildauer der Geräte beim Kunden und einem magischen, nur dem Hersteller bekannten Koeffizienten die Anzahl der Neunen hinter dem Komma. Manche Hersteller fügen in diese Gleichung auch noch die Verfügbarkeit des Microcodes und das Verhalten der Maschine bei dessen Upgrade hinzu, welches sich allerdings (zumindest manchmal) nicht verlässlich voraussagen lässt.

Andere wiederum beurteilen nicht die Eigenschaften der Hard- und Software ihrer Produkte, sondern lediglich die »Datenverfügbarkeit« an den angeschlossenen Systemen, also wie lange die Rechner an die gespeicherten Daten herankommen. Dies ist dann meist ein statistisches Mittel der in den Service-abteilungen vorliegenden Laufzeitunterlagen der im Feld installierten Maschinen.

100-prozentige Zuverlässigkeit gibt es nicht

Es gibt sogar Hersteller, die auf ihre Produkte und in ihre Broschüren »100 Prozent« drucken. Dazu habe ich in den letzten Wochen genug ausgelassen und will mich nicht mehr aufregen. So etwas gibt es nicht, nur in der Phantasie einiger Marketing-Menschen. So lange humanoide Wesen an der Konstruktion und dem Bau solcher Maschinen beteiligt sind, wird es niemals eine hundertprozentige Zuverlässigkeit geben. Punkt, Basta, aus. Das ist wird vom Vertrieb der jeweiligen Anbieter über Vertragsstrafen geregelt. Das heißt, sollte doch mal was ausfallen, kosten fünf Minuten so und so viel.

Ein Unterschied zwischen drei und vier Neunen nach dem Komma wird weder von einer Anwendung und schon gar nicht von einem Benutzer bemerkt werden. Und denjenigen, die mir jetzt wieder mit den ach so empfindlichen Datenbanken oder Internet-Anwendungen um die Ecke kommen, empfehle ich wärmstens, den I/O-Cache zu nutzen, der je nach Transaktionsleistung viele Sekunden, wenn nicht ganze Minuten behalten kann, bevor irgendetwas »passiert«. Und den Jüngern des »always on«-Kultes kann ich nur – wie seit Jahren schon – ebenso wärmstens empfehlen, ihre Anwendungen so zu stricken und ihre Benutzer darauf zu konditionieren, dass etwas, was von Menschenhand gemacht, gebaut oder programmiert worden ist, schlichtweg kaputtgehen kann. Oder nach Murphy sogar kaputtgehen muss. Es geht also nicht darum, ewig wider besseren Wissens die »100« oder so viele Neunen wie möglich zu fordern, sondern die Infrastruktur und alles was auf ihr läuft auf den Katastrophenfall vorzubereiten. Handbücher schreiben, das gute alte Ostern oder ein günstig gelegenes Weihnachten abwarten und üben. Das und nur das sichert den Betrieb nachhaltig ab, weder die Versprechen vom »uninterrupted Microcode-Upgrade« oder das genauso blödsinnige »always on«.

Sollte es aus meinem Text nicht deutlich hervorgegangen sein: Für mehr als drei Neunen hinterm Komma würde ich keinen Pfennig ausgeben. Alles andere kann man mit guten Leuten im Rechenzentrum, einem vernünftigen K-Fall-Szenario und entsprechend angepassten Anwendungen erledigen. Für wesentlich weniger Geld, als die Hersteller für jede weitere Neun verlangen.

So, es ist Ostern, die üblichen Verdächtigen dürfen mich kreuzigen.

Gruß
Doc Storage


Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de

Mehr von Doc. tec. Storage 17.05.2019 NAS-Caching oder Tiering für VMs multiple Zugriffe?

In einer Lehrumgebung werden virtuellen Maschinen auf einem NAS mit 10GbE-Anbindung gespeichert. Nachdem eine Erweiterung mit NVMe-Flash ansteht, stellt sich die Frage, ob eine Caching- oder eine Tiering-Konfiguration die sinnvollere Wahl ist?


10.05.2019 Wird Flash nun auch zum Backup-Medium?

Flash wird zunehmend auch für Backup interessant. Der Geschwindigkeitsvorteil soll die Dauer der Sicherung wie auch der Wiederherstellung reduzieren. Macht dies in der Praxis bereits Sinn – auch aus Kostensicht?


03.05.2019 Unterschied zwischen Active/Active und Active/Passive

Beim Thema Hochverfügbarkeit unterscheidet man zwischen Konfigurationen, die Active/Active bzw. Active/Passive agieren. Was ist genau der Unterschied und für welche Szenarien empfehlen sich die beiden Möglichkeiten? Welche Cluster-Architektur bietet hinsichtlich Skalierbarkeit mehr Spielraum für zukünftigen Lastzunahmen?


26.04.2019 Dateisysteme für den PByte-Bereich

Datenberge jenseits des PByte-Bereichs, Cloud-Anbindungen und Analytics-Szenarien stellen Dateiysteme vor neue Herausforderungen. Der Markt bietet einige Optionen wie GPFS, Gluster FS, OneFS oder QF2. Worauf gilt es zu achten? Update zu CephFS und ZFS.


05.04.2019 Neuordnung des Storage-Tiering

Nachdem sich Flash und SSDs mittlerweile auch in mehrere Leistungsklassen unterteilen, steht die Technik nicht mehr nur für Tier 0. 15k-HDDs scheinen vor dem Aus zu stehen. Gilt dies auch für alle SAS-Platten? Wie sieht die Neuordnung des Storage-Tiering aktuell aus?


15.03.2019 30 Jahre World Wide Web: Was gibt es zu feiern?

Das World Wide Web feiert seinen 30. Geburtstag. Ohne dem Internet ist unser heutiges Leben nicht mehr vorstellbar. Für Doc Storage hat das Netz aber auch genug Schattenseiten. An Regulierungen bzw. an das vom Erfinder erhoffte bessere Internet, glaubt er nicht.

powered by
Boston Server & Storage Solutions Datacore Software
Itiso GmbH Seagate Technology
N-TEC GmbH FAST LTA AG
Fujitsu Technology Solutions GmbH Pure Storage