03.03.2017 (Doc Storage)
4.4 von 5, (10 Bewertungen)

Von Hochverfügbarkeit & Zero-Minute-Recovery – ein Rant

  • Inhalt dieses Artikels
  • 1. 100 Prozent Verfügbarkeit
  • 2. Produktionsaufnahme in Null Minuten

Unserem Doc schwillt mal wieder der Kamm. Dass die Hersteller immer irgendwie gehörig auf den (Marketing-)Putz hauen, ist bekannt und nichts Neues. Doch speziell beim Thema Verfügbarkeit und Recovery, wenn es um wichtige Unternehmensdaten geht, muss nach der Ansicht unseres Docs einiges zurechtgerückt werden

Meinung Doc Storage:

Liebe Leser,

nun, da die EDV-Karnevalsveranstaltungen durch sind, sei es mir erlaubt, hier einmal meine Kopfschmerzen loszuwerden. Nicht, dass man es anders erwartet hätte, aber auf allen Messen, Konferenzen und – ich liebe dieses Wort – Summits wurde wieder über so viel Unnötiges geredet und so viel unmögliches und überflüssiges versprochen, dass hier einmal über die gröbsten drei Schnitzer geredet werden muss.

1. 100 Prozent Verfügbarkeit

Ich hatte ja, naiv wie ich nun einmal bin, gehofft, dass das Thema »100 Prozent Verfügbarkeit« ausreichend diskutiert und als Mumpitz zu den Akten gelegt worden ist. Aber ich wurde wieder einmal eines besseren belehrt. Kaum hatten wir alle Speicherhersteller (bis auf den einen roten aus Japan) davon überzeugt, dass von Menschenhand gemachte Systeme niemals hundertprozentig verfügbar sein können, steigt diese Chimäre aus den tiefschwarzen Kellern der Marketingabteilungen wieder herauf.

Nun sollen auf einmal Cloud-Umgebungen auf 100 Prozent getrimmt sein, dem Nutzer die Daten in diesen Blasen immer verfügbar gemacht und ohne jeglichen Ausfall bereitgestellt werden. Aufmerksame Leser dieser Publikation werden sogar entsprechende Angebote von Herstellern finden, und diese sind nicht Jahre alt, sondern stammen aus dieser Woche. Dem interessierten Nutzer und potentiellen Kunden soll durch allerlei professionell klingende Anglizismen wie Dashboard-Reporting und Remote-Monitoring, oder durch lustige scheinfachliche Verschwurbelungen wie prädikative Analysen, intelligenten Lernalgorithmen, proaktiven Vorfallerkennungen und einigem mehr der Zaubertrick plausibel gemacht werden.

Schön und gut – die Speicherumgebung der Wolke mag hiermit lückenlos überwacht und eventuelle Fehler schon vor ihrem Auftreten geahnt werden können. Was ist allerdings mit dem Zugang zu dieser Umgebung? Mit den Netzen des Anwenders, denen der Weitverkehrsanbieter und den mannigfaltig dazwischengeschalteten LAN- und WAN-Geräten? Fällt auch nur eines davon aus, ist es Essig mit den hundert Prozent. Baggert irgendwo eine gelangweilte Fachkraft mit ihrem gelben Stahlberg ein zu breites oder zu tiefes Loch, war es das mit dem Zugang. Man mag noch dutzende solcher Szenarien kennen, alle laut Anbietern dermaßen unwahrscheinlich, dass sie »einmal in x Jahrhunderten« vorkommen. Aber sie kommen vor. Und die Jahrhunderte werden komischerweise immer kürzer, je komplexer die entsprechenden Umgebungen werden.

Also hört mir auf mit den hundert Prozent, erzählt den Leuten bitte, was sie wirklich zu erwarten haben.

2. Produktionsaufnahme in Null Minuten

Auch hier schwillt mir die ganz dicke Ader. Vor zehn, ach was, vor fast zwanzig Jahren kamen synchron geschalteten Speichersystemen in den Markt. Den Nutzern wurde gesagt, dass sie unter bestimmten Voraussetzungen die an einem Standort ausgefallene Produktion mit demselben Datenbestand an einem anderen Ort in kürzester Zeit wiederaufnehmen können. Man bedenke, dass damals alle Speichergeräte in den Rechenzentren unter derselben Herrschaft und – meistens – sehr gut koordiniert aufgebaut und konfiguriert waren. Die Leitungen waren redundant, auch wenn das bei den vom rosa Riesen und seinen Konkurrenten aufgerufenen Preisen meist mehr kostete als die ganzen Festplattenberge zusammen. Das Schwenken der Produktion wurde monate-, wenn nicht jahrelang konzeptioniert, K-Fall-Handbücher mit den entsprechenden Verfahren waren dicker als Krieg und Frieden. Und wenn man Glück hatte, ich meine wirklich Glück, war man am kommenden Werktag woanders wieder oben.

Jetzt kommen Hersteller aus der hecke und wollen den potentiellen Kunden erzählen, mit ihrer Hilfe könnten sie – ich liebe Englisch – Zero-Minute-Recovery machen. Will sagen, sie könnten in derselben Minute, in der ihre Speicherumgebung das zeitliche gesegnet hat, ohne weitere Einschränkungen auf dieselben Datenbestände in irgendeiner Wolke zugreifen, mit denselben Nutzerberechtigungen und dem exakt selben Datenbestand. Auch diese Hersteller können offensichtlich zaubern. Mal ganz abgesehen davon, dass der Zugriff auf die Daten in der Wolke um Faktoren langsamer sein dürfte als der auf die lokalen Platten, tun die Mitarbeiter während der Bürostunden nämlich alles dafür, dass dieses Konzept zum Scheitern verurteilt ist.

Diese kleinen garstigen Wesen öffnen nämlich Dateien direkt vom zentralen Speicher, bearbeiten diese und speichern sie dort wieder ab. Fällt während dieser normalen Arbeitsweise allerdings der zentrale Speicher aus, aus welchem Grund auch immer, sind alle zu dieser Zeit geöffneten Dateien im besten Falle auf der anderen Seite auf dem alten Stand, im schlimmsten Falle korrupt, weil als »geöffnet« markiert. Im besten Falle müssen also alle Mitarbeiter mit ihrer Arbeit an den zentral abgelegten Daten neu beginnen. Das heißt, es geht nur die Arbeit von ein paar Minuten oder einigen Stunden verloren. Im schlimmsten Falle muss der Backup-Mensch erst einmal die Altstände aus der Nacht oder von wann auch immer zurückholen – wenn er Glück hat aus einem B2D-Image, wenn er Pech hat… naja, das wissen wir alle.

Es gibt nach einem Ausfall eines zentralen Speichers keine Produktionsaufnahme in Null Minuten, das ist völliger Blödsinn. Technisch vielleicht, mit sehr, sehr vielen wenn's und abers, aber organisatorisch mit Sicherheit nicht.

So, und jetzt können mich wieder die üblichen Verdächtigen auf den Scheiterhaufen stellen, anzünden und aktuelle Marketing-Phrasen singend um mich herumtanzen. Aber bei eventuellen Zuschriften immer schön dran denken: sachlich bleiben, ich bin es auch.

Und kommende Woche geht mit dem Thema Flash weiter. Flash spart Zeit!? Ja! Aber…

Lieben Gruß
Doc Storage


Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de
Kommentare (3)
03.03.2017 - jan

Warum einfach nicht mal "ernst nehmen"?
Einen schönen Vertrag aufsetzen mit einen "Third Party" Verfügbarkeitsmessungsdienstleister als zentralen Bestandteil - und wunderbaren Penalties, die in das Vertragswerk konfiguriert werden - fertig ist das Kunstwerk.
"force majeur" und ähnliche Ausflüchte sollten bei der Gelegenheit - gleich mal im Vertrag als obsolete definiert werden. (Vertragsfreiheit ist was Schönes...)
Wenn dann bei 99.9999% (Third Party gemessener) Verfügbarkeit das System kostenfrei wird - und darunter durch die Penalties Geld bringt... Wird dem Marketingfuzzy von dessen Management der Arsch aufgerissen werden :-).
"Mission accomplished"

03.03.2017 - ben-schwarz

Und wie der AWS Ausfall vor ein paar Tagen grad zeigt: Everthing can fail, all the time.

03.03.2017 - guegi

Super wie immer, spricht mir sowas von aus der Seele. Auch ich werde regelmäßig mit solchen Zaubertricksversprechen bombardiert.


Mehr von Doc. tec. Storage 17.05.2019 NAS-Caching oder Tiering für VMs multiple Zugriffe?

In einer Lehrumgebung werden virtuellen Maschinen auf einem NAS mit 10GbE-Anbindung gespeichert. Nachdem eine Erweiterung mit NVMe-Flash ansteht, stellt sich die Frage, ob eine Caching- oder eine Tiering-Konfiguration die sinnvollere Wahl ist?


10.05.2019 Wird Flash nun auch zum Backup-Medium?

Flash wird zunehmend auch für Backup interessant. Der Geschwindigkeitsvorteil soll die Dauer der Sicherung wie auch der Wiederherstellung reduzieren. Macht dies in der Praxis bereits Sinn – auch aus Kostensicht?


03.05.2019 Unterschied zwischen Active/Active und Active/Passive

Beim Thema Hochverfügbarkeit unterscheidet man zwischen Konfigurationen, die Active/Active bzw. Active/Passive agieren. Was ist genau der Unterschied und für welche Szenarien empfehlen sich die beiden Möglichkeiten? Welche Cluster-Architektur bietet hinsichtlich Skalierbarkeit mehr Spielraum für zukünftigen Lastzunahmen?


26.04.2019 Dateisysteme für den PByte-Bereich

Datenberge jenseits des PByte-Bereichs, Cloud-Anbindungen und Analytics-Szenarien stellen Dateiysteme vor neue Herausforderungen. Der Markt bietet einige Optionen wie GPFS, Gluster FS, OneFS oder QF2. Worauf gilt es zu achten? Update zu CephFS und ZFS.


05.04.2019 Neuordnung des Storage-Tiering

Nachdem sich Flash und SSDs mittlerweile auch in mehrere Leistungsklassen unterteilen, steht die Technik nicht mehr nur für Tier 0. 15k-HDDs scheinen vor dem Aus zu stehen. Gilt dies auch für alle SAS-Platten? Wie sieht die Neuordnung des Storage-Tiering aktuell aus?


15.03.2019 30 Jahre World Wide Web: Was gibt es zu feiern?

Das World Wide Web feiert seinen 30. Geburtstag. Ohne dem Internet ist unser heutiges Leben nicht mehr vorstellbar. Für Doc Storage hat das Netz aber auch genug Schattenseiten. An Regulierungen bzw. an das vom Erfinder erhoffte bessere Internet, glaubt er nicht.

powered by
Boston Server & Storage Solutions Datacore Software
Itiso GmbH Seagate Technology
N-TEC GmbH FAST LTA AG
Fujitsu Technology Solutions GmbH Pure Storage