20.02.2015 (Doc Storage)
4.7 von 5, (7 Bewertungen)

Cloud-Storage für Replikation geeignet?

Leserfrage: In unserem kleinen Rechenzentrum replizieren wir die Daten in einen zweiten Raum. Zweiter Standort außerhalb wäre besser, aber zu teuer. Könnte man für Replikation als zweiten Standort nicht einen Cloud-Storage-Provider verwenden? Gibt’s für diesen Fall schon vernünftige Kosten-Modellberechnungen?

Antwort Doc Storage:

Wie bei fast allen Fragen der Informatik lautet die Antwort: »Das kommt drauf an.« Zunächst müssen Sie sich klarmachen, wozu Sie Ihre Replikation überhaupt benötigen, und wie oft dieser Fall eintritt. Anders als beim Backup, welches ältere Versionen und bereits seit einer bestimmten Frist vorhandene Dateien aufbewahrt und zur Verfügung stellt, ist eine klassische Replikation, sei sie nun innerhalb eines Arrays oder eben – wie in Ihrem Fall – über mehrere Speichersysteme verteilt, dafür zuständig, beschädigte oder ausgefallene Laufwerke bzw. Speichersysteme so schnell wie möglich durch eine brauchbare Kopie zu ersetzen. Diese Kopie sollte in jedem Fall den letztmöglichen Zustand eines oder mehrerer Datenträger darstellen, also alle noch verarbeitbaren Schreiboperationen vor dem Ausfall.

Anzeige
Und hier liegt schon der erste Pferdefuß, wenn Sie erwägen, statt einer Replik auf dem eigenen Gelände oder in einem eigenen bzw. gemieteten Weitverkehrsnetz zu nutzen. In beiden genannten Fällen steht Ihnen eine garantierte Bandbreite über die gesamte Zeit der Nutzung zur Verfügung. Die Replik auf dem eigenen Gelände oder über eine Weitverkehrsstrecke können Sie jederzeit mit einer vorhersagbaren Bandbreite erreichen. Ihre Anwendungen werden, falls Sie synchrone Spiegelung nutzen, immer dieselbe Leistung zeigen.

Zwar können Sie bei den meisten Cloud-Anbietern Speicherplatz zu nicht mehr erwähnenswerten Preisen mieten, jedoch sollten Sie auf zwei Dinge achten: Erstens die Schutzklasse, unter der der angemietete Speicher läuft, und zweitens die garantierte Bandbreite, die Ihnen der Anbieter zur Verfügung stellt. Im ersten Fall wird das Volumen natürlich teurer, je hochverfügbarer und schneller die Medien aufgebaut sind. RAID 6 wird mehr kosten als RAID 5, RAID 1 wiederum mehr als RAID 6 und so weiter. Im ersten Fall, weil die Medien im Falle eines Plattenverlustes wesentlich schneller wieder die normale Leistung erreichen (oder erst gar nicht ausfallen, wenn nur eine Platte betroffen ist), im zweiten Fall, weil RAID 1 deutlich schneller ist als RAID 6 und auch die Leistung nach einem Plattenausfall nicht so dramatisch abfällt. Das kostet allerdings.

RAID 6 wird teurer sein als RAID 5 und RAID 1 wiederum als RAID 6. Des weiteren werden Sie kaum Einfluss darauf haben, mit wem Sie die RAID-Gruppen teilen. Ein einigermaßen wirtschaftlich denkender Anbieter wird mindestens 2-TByte-Medien in 7+1-RAID 5 oder 6+2-RAID 6 in seinen Systemen betreiben. Das heißt, für den Anwender, dass sich, sobald er weniger als zwölf bis 14 TByte nutzt, auch noch andere Kunden auf »seinen« Laufwerken herumtreiben. Sollte es sich um ein fortschrittliches System handeln, werden die logischen Laufwerke für die einzelnen Kunden sowieso über das gesamte Backend gestreckt und begegnen sich auf fast jedem Zylinder.

Wie bereits geschrieben, Kapazität kostet heute (fast) nichts mehr, Bandbreite bzw. I/Os dagegen schon. Wenn man sich verschiedene Anbieter anschaut, findet man Preise, die einem für den Betrieb einer Replik einer »normalen« Datenbank oder eines Standard-File-Servers in einem größeren Unternehmen schon die Schweißperlen ins Portemonnaie treiben. Hier wird klar Kasse mit den hochtransaktionalen Kunden gemacht – wer mal eben zwei- oder dreimal am Tag eine Datei in die Wolke schiebt, interessiert die Anbieter kaum und wird von den professionellen Kunden subventioniert.

Es gibt zwei Hauptmodelle, auf deren Auswirkung schon bei der Bestellung und Einrichtung zu achten ist. Das eine Modell bietet eine garantierte Bandbreite bzw. eine garantierte I/O-Leistung jederzeit, ist allerdings die teuerste Variante und damit nur demjenigen überhaupt zu empfehlen, der über annähernd den gesamten Tag die hohe Leistung benötigt. Das andere Modell bietet – ähnlich wie bei der Bandbreite in privaten Handy-Verträgen – eine absolut zu verbrauchende Speichergröße bzw. I/O-Anzahl. Wenn diese verbraucht sind – und das kann schneller gehen, als man denkt, vor allem bei Monats- und Jahresabschlüssen, Gehaltsläufen oder ähnlichem – kappt der Anbieter die breite Verbindung, und der Nutzer muss für dann noch teureres Geld Bandbreite oder I/Os dazu mieten.

Natürlich ist die Cloud, sei sie nun privat, öffentlich oder hybrid, eine Alternative zu traditionellen Replikationsverfahren. Und jetzt kommen – bei mir leider schon fast üblich – die großen Aber's:

Aber Nr. 1. Der IT-Manager muss sich genauestens über die Leistungsanforderungen seiner zu replizierenden Laufwerke im Klaren sein, wie viele I/Os, wie viel Bandbreite auf wie viel Kapazität über welche Zeit. Nur dann kann er überhaupt den richtigen Tarif bei den Anbietern finden und fällt nicht gegen Ende einer Nutzungsperiode in Ohnmacht, wenn er nachbuchen soll, um den Betrieb aufrecht zu erhalten.

Aber Nr. 2: Unternehmen müssen einen Anbieter finden, der in der Lage ist, für seine Speicherlandschaft dieselben Qualitätsgarantien abzugeben wie eine interne Mannschaft. Art und Betreuung der Speichersysteme, garantierte Schutzklassen, garantierte Wiederherstellungszeiten, garantierte Verfügbarkeit sind nur einige Punkte, auf die der Speichermensch wohl zu achten weiß.

Aber Nr. 3: Der Admin muss eine Weitverkehrsanbindung schaffen (und leider auch bezahlen), die dieselben Kriterien für eine synchrone Spiegelung erfüllt wie seine interne Anbindung. Als Daumenregel gilt hier, dass ein voller Roundtrip (also das Senden und Empfangen eines Paketes) nicht länger als 5 ms dauern sollte, was in Deutschland bei der uns zur Verfügung stehenden Leitungsqualität zwischen 100 und 150 km, in sehr günstigen Fällen auch schon einmal bis zu 200 km, ausmachen kann. Und diese 5 ms sollten nicht nur, sie müssen auch bei der voll genutzten Bandbreite vom Anbieter garantiert werden.

Aber Nr. 4: Wenn Sie den Vorschriften des Basler Ausschusses für Bankenaufsicht (z.B. 2006/48 und 2006/69), des KWG, der SolvV, KontraG oder den MaRisk unterliegen und diese erfüllen müssen, sollten Sie sich vorher vom Anbieter Ihrer Wahl eine entsprechende Zertifizierung seiner internen Verfahren einholen. Des weiteren benötigen Sie natürlich – wie bei einem internen Audit in diesem Zusammenhang auch – eine Überprüfung nach §322 Abs. 1 HGB oder analogen Vorschriften.

Fazit: Die Cloud ist nicht billig, nur weil der Speicher nichts kostet. Als IT-Verantwortlicher muss man auf dieselben Dinge achten, die einem schon intern das Leben schwer machen, wie garantierte Bandbreiten und I/Os, Antwortzeiten, gesetzliche Vorschriften. Gesetzt den Fall, Sie finden einen Anbieter, der Ihnen die gewünschte Kapazität in einer gewünschten Schutzklasse mit den gewünschten 5 ms zur Verfügung stellen kann – was kostet die Bandbreite beim Telekom-Anbieter, was kostet diese oder die gewünschte I/O-Leistung in der Cloud? Da werden die Preise für die Kapazität zur kleinsten Nebensache. Darüber hinaus stellt sich die Frage, ob Sie die eventuell notwendige Wartung des Speichersystems und die Einhaltung der gesetzlichen Vorschriften tatsächlich beim Cloud-Anbieter so im Griff haben, wie Sie das intern hätten. Über die einzelnen Preise muss ich Sie bitten, sich unter der Vorgabe Ihrer Parameter und Berücksichtigung der hier gegebenen Hinweise durch die Listen der Anbieter zu kalkulieren – hier gibt es so viele Optionen und Kleingedrucktes, dass ich diese hier nicht alle aufführen kann.

Als Alternative hat sich bewährt, sich auf Anwendertreffen einmal mit anderen Leidensgenossen mit denselben Speichersystemen zusammenzutun. Sie werden sich wundern, wie viele Rechenzentren dieselben Anforderungen erfüllen müssen wie Sie und auch ständig auf der Suche nach Alternativen sind. Warum sich nicht mit diesen zusammensetzen, gegenseitig Kapazität mit garantierten Leistungen zur Verfügung stellen, und so mehrere Fliegen mit einer Klappe schlagen…? Nur so ein Gedanke…

Gruß
Doc Storage

Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de
Kommentare (5)
19.04.2015 - mress

Erwähnenswert ist ebenfalls, daß man sehr vorsichtig sein sollte wenn man sich für einen Cloud Anbieter entscheidet: Ein amerikanischer Anbieter der in Deutschland ein RZ betreibt unterliegt in jedem Falle auch amerikanischem Recht - mit all den hinlänglich bekannten Folgen! Wer dazu Details benötigt dem sei der Vortrag von Caspar Bowden "The Cloud Conspiracy" empfohlen.

23.02.2015 - BenG

Für virtualisierte Infrastrukturen sei an dieser Stelle der US Hersteller Zerto genannt (www.zerto.com).

Zerto bietet eine hypervisorbasierte Replikation mit beinahe zero-RPO. Das gute daran: völlige hardwareunabhängigkeit auf seiten des zugrundeliegenden Speichers. Sie müssen also nicht auf eine array-basierte Replikation setzen mit dem dazugehörigen vendor lock-in.

Außerdem bietet zerto nun auch hyper-v zusätzlich zu vmware an, das bedeutet, dass Sie völlig frei zwischen diesen Virtualisierungsclustern spiegeln können. Weiterhin gibt es nun die erste Schnittstelle zu AWS für interessierte Kunden. Weitere werden definitiv noch folgen.

Vorteile: Sie müssen sich nicht an HW-Vorgaben des cloud Providers halten sondern können weiterhin den Storageanbieter ihres Vertrauens nutzen und der CSP den seinen.

wer sich dafür interessiert: www.youtube.com/watch?v=pgrye4gtj6i

20.02.2015 - dunterse

Aus meiner Sicht ist eine synchrone Spiegelung Richtung Public Cloud-Provider oder Hyperscaler ein großes Minenfeld und (vorerst) nicht praktikabel.

Das heißt aber als Schlussforlgerung: alle Asynchronen Verfahren bieten sich an, die mal Richtung Nutzbarkeit günstiger Cloud-Kapazitäten zu prüfen.

Ich würde nichts empfehlen, bei dem eine starke Encryption auf Cloud-Seite irgendwo aufgebrochen wird oder werden kann (es sei denn Sie sind beim Provider Ihres vollen Vertrauens).

Aynchrone Spiegel, welche nur ein paar Millisekunden bis zu wesentlich längeren Delays (im Zweifelsfall bis zu h) hinterherlaufen, wäre der eine Ansatz: Da gibt es aus meiner Sicht noch nicht viel brauchbares, aber so was scheint zu kommen. Man würde nach einem Desaster chrash-consistene Stände vorfinden.

Praktikabler, vor allem für kleinere Kunden, erscheint mir der Einsatz "Backup2Cloud-Appliances", welche alle Blöcke async in die Cloud schieben. Denn die Restore-Fähikgeit auf gesicherte ältere Stände ist ja ein Muss - ein semi-sync Spiegel eher ein Kann-Feature, um beim Desaster schneller zu werden.

Bei diesen "Backup2Cloud"-Appliances muss natürlich Dedupe & Compression vor Encryption drin stecken, damit man dem Problem "optimale Nutzung der WAN-Bandbreiten" gerecht wird. Wenn die WAN-Throughput vom Kunden ins Internet kleiner ist als die Menge der Differenzblöcke pro Tag (nach Dedupe & Compression), dann scheitert man auch hier. Ich habe keinen großen Marktüberblick, aber zumindest die ehemalige Riverbed Whitewater (inzwichen NetApp SteelStore) erfüllt all diese Kriterien.

Die Wahl des Cloud-Block-Storages bleibt dann auch noch zu fällen (extrem preisgünstig und gleichzeitig extrem vor Datenverlust geschützt ist ja wohl Amazon Glacier, aber leider mit bis zu ~5h Latency beim Lesen verbunden). Aus dem gleichen Hause wäre "S3" ca. 3 mal teurer, aber mit viel besserer Latency. Und natürlich gibt es auch die Möglichkeit, so was in der eigenen Private Cloud zu speichern.

20.02.2015 - rg [MSFT]

Wer sich ansehen möchte wie man diese Anforderung effizient (und sicher verschlüsselt) nutzt, kann sich das folgende Video zu StorSimple ansehen: www.youtube.com/watch?v=dpzl0lrnvoa&feature=youtu.be

20.02.2015 - RSchuster

Wow, das war mal eine sehr ausführliche und präzise Antwort.


Mehr von Doc. tec. Storage 12.07.2019 Analysten-Prognosen sind verschwendete Lebenszeit

Diesmal nimmt sich Doc Storage die Trendvorhersagen von Marktforschern vor. Seiner Ansicht nach ist vieles nur ein Blick in die Glaskugel, anderes dagegen so offensichtlich, dass es keine weitere Betrachtung benötige. Er hält diese Art von Info für verschwendete Lebenszeit.


28.06.2019 DSGVO bleibt aus DV-Sicht ein unsägliches Thema

Kolumne: Unser Doc Storage ist kein Freund der DSGVO. Dies hat er in mehreren Kolumnen klar formuliert. In seinem zweiten Teil zu »Ein Jahr DSGVO« fasst er nochmal zusammen, warum die Thematik aus seiner DV-Sicht für Firmen unsäglich ist.


14.06.2019 Ein Jahr DSGVO: Aufwand unerträglich hoch

Kolumne: Zur Einführung der DSGVO hat Doc Storage mächtig Dampf abgelassen. Ein Jahr später lässt kaum ein Verband ein gutes Haar an der Datenschutz-Grundverordnung. Der Aufwand für Firmen und IT-Abteilungen sei unerträglich hoch.


07.06.2019 Welchen Flash für welche Anwendung?

Vor rund sechs Jahren schickten sich Flash-Speicher an, sich in Computern und Storage-Systemen zu etablieren. Damals galten die Lösungen aber noch als proprietär. Wo steht die Technik heute und welcher Flash eignet sich für welchen Einsatzzweck?


17.05.2019 NAS-Caching oder Tiering für VMs multiple Zugriffe?

In einer Lehrumgebung werden virtuellen Maschinen auf einem NAS mit 10GbE-Anbindung gespeichert. Nachdem eine Erweiterung mit NVMe-Flash ansteht, stellt sich die Frage, ob eine Caching- oder eine Tiering-Konfiguration die sinnvollere Wahl ist?


10.05.2019 Wird Flash nun auch zum Backup-Medium?

Flash wird zunehmend auch für Backup interessant. Der Geschwindigkeitsvorteil soll die Dauer der Sicherung wie auch der Wiederherstellung reduzieren. Macht dies in der Praxis bereits Sinn – auch aus Kostensicht?

powered by
Boston Server & Storage Solutions Datacore Software
Itiso GmbH Seagate Technology
N-TEC GmbH FAST LTA AG
Fujitsu Technology Solutions GmbH Infortrend