20.05.2014 (kfr)
3.4 von 5, (7 Bewertungen)

»Backup & Recovery-Architektur kontinuierlich anpassen«

Backup & Recovery im klassischen Sinne genügt heutigen Anforderungen immer weniger. Kritisch ist auch, dass bestehende Konzepte nicht regelmäßig auf ihre Tauglichkeit überprüft werden und viele das Disaster-Recovery gänzlich aus den Augen verlieren.
Wir sprachen mit Alexander Pucher, Projektleiter bei Levigo Systems, über die aktuelle Entwicklung in den Bereichen Backup & Recovery, Cloud und Archivierung.

  Was sind in den Unternehmen derzeit die vorrangigsten Backup/Recovery-Anforderungen? Welches sind aus Ihrer Sicht die Problemherde in den RZs? Woran wird aktuell gearbeitet?

Alexander Pucher, Levigo SystemsAlexander Pucher, Levigo SystemsPucher: Das größte Problem im Bereich Backup sind die stetig, teils exponentiell wachsenden Datenmengen. Unternehmen, die noch die klassischen Datensicherungsstrategien von wöchentlicher Voll- und täglicher differentieller bzw. inkrementeller Sicherung fahren, haben mit der Herausforderung zu kämpfen, diese Datenmengen in immer kleiner werdenden Zeitfenstern zu sichern. Die wachsenden Datenmengen treiben auch die Wiederherstellungszeit (RTO) und den Wiederanlauf-Zeitpunkt eines Systems nach einem Ausfall (RPO) nach oben.

In Zeiten von Server-Virtualisierung und Storage-Zentralisierung muss für die Datensicherung ein anderer Ansatz gefahren werden. Snapshot-basierte Lösungen und das Thema Deduplizierung sind eine Möglichkeit, Systeme nach einem Ausfall zeitnah wieder zum Laufen zu kriegen.

Die verwendete Backup- und Disaster-Recovery-Lösung (DR) muss zur vorhandenen IT-Infrastruktur passen und die Business-Anforderungen an RTO und RPO erfüllen können. Wenn sich diese Anforderungen ändern, dann ist es unabdingbar, dass Backup-Strategie und eingesetzte Software-Lösung überdacht werden.

  Kontinuierliche Snapshots werden als mögliches Backup-Konzept für IT-Umgebungen diskutiert? Wie sehen Sie diesen Ansatz?

Pucher: Kontinuierliche Snapshots können die Basis eines Backup-Konzeptes sein. So lange diese aber wie die Nutzdaten nur auf dem Primär-Storage liegen und nicht auf ein zweites System – möglichst in einem zweiten Brandabschnitt – kopiert bzw. repliziert werden, ist diese die RPO und RTO positiv beeinflussende Methode nicht zu empfehlen. Die Replikation auf ein zweites, unabhängiges System – sei es Disk oder Tape – ist Pflicht. Da unterscheidet sich der klassische Backup nicht von der Verwendung von Snapshots.

Eine große Herausforderung ist es, applikationskonsistente Snapshots zu erstellen. Dies führt dazu, dass im heterogenen Umfeld die Komplexität der Backup- und Recovery-Lösung immer mehr zunimmt, weil nicht für jede mögliche Kombination von Applikationen die richtigen Tools als fertiges Produkt zur Verfügung stehen.

  Wie sieht für Sie ein sinnvolles Backup-Konzept aus? Worauf sollten Unternehmen bei der Datensicherung achten?

Pucher: Das ist abhängig von der Größe der relevanten Umgebung. In kleinen Umgebungen ist die klassische, tägliche Vollsicherung auf Band sicherlich noch machbar. In größeren, virtualisierten Umgebungen bilden applikationskonsistente Snapshots auf dem Primär-Storage, die auf Sekundär-Storage repliziert werden die Grundlage für eine sinnvolle Konfiguration. Ein modernes Backup- und DR-Konzept beinhaltet für uns immer noch die Komponente »Tape« als zusätzliches Medium, das sich einfach auslagern lässt – als so genannte »Last Line Of Defense«. Der positive Nebeneffekt dieser Technologie ist, dass beim Einsatz von Bändern im Vergleich zu sich drehenden Platten nur beim tatsächlichen Zugriff elektrische Energie verbraucht wird und Datenträger und Leseelektronik voneinander getrennt sind.

Primär gilt es darauf zu achten, dass die gewählte Backup- und DR-Lösung die Business-Anforderungen an RTO und RPO erfüllen und Geschäftsprozesse nicht mehr als nötig durch Backupläufe gestört werden.

In regelmäßigen Abständen sollten IT-Verantwortliche das Backup- und DR-Konzept überprüfen und an die sich eventuell geänderten Unternehmensanforderungen anpassen. Es ist leider viel zu häufig so, dass zwar vor der Implementierung ausgiebig ein Konzept ausgearbeitet wird, die täglichen Datensicherungen auch ausgeführt und überwacht werden, ebenso wie das Thema Restore von Einzeldateien, während aber leider das Thema Disaster-Recovery häufig nach der initialen Konfiguration und ersten Tests aus den Augen verloren wird.

  Ebenfalls kontrovers diskutiert werden Online-Backup bzw. Backup in die Cloud. Kritisch gesehen, werden die geringe Datenübertragung, und dass unternehmenskritische Daten nicht einfach irgendwo in der Wolke gespeichert werden sollen/dürfen. Wie sehen Sie hier die Marktakzeptanz?

Pucher: Entscheidender Vorteil einer Cloud-basierten Backup-Lösung ist, dass vor Ort keine zusätzlichen Infrastrukturkomponenten vorgehalten werden müssen. Die Überwachung der Sicherungen muss aber trotzdem erfolgen – diese lästige Aufgabe schafft der Einsatz von Cloud-Lösungen leider nicht ab.

Cloud-basierte Backups sind Off-Site-Backups. Somit sind die Anforderungen »zweiter Brandabschnitt« und »Sekundär-Storage« abgedeckt. Oftmals findet auch hier eine Auslagerung der Sicherung auf Tape statt.

Durch cleveren Einsatz aktueller Technologie und vorausschauender Planung ist die Nutzung von Cloud-Backup-Lösungen auch bei geringen Upload-Bandbreiten möglich. So kann beispielsweise der Initial-Backup in die Cloud durch Festplatten- oder Tape-basiertes »Seeding« erfolgen und die später anfallenden, kontinuierlichen Änderungen lassen sich auch durch »dünne« Leitungen übertragen.

Zu beachten ist aber immer, dass die mögliche, in einer Stunde maximal zu transferierende Datenmenge durch die Upload-Bandbreite begrenzt ist. So ist zum Beispiel bei einer oftmals im Mittelstand vorhandenen synchronen Leitung mit zwei Mbit/s das Datenvolumen auf maximal 900 MByte/s begrenzt.

Spätestens beim Rückspielen großer Datenmengen im Katastrophenfall kann auch bei ausreichend hoch dimensionierter Download-Bandbreite dieser Ansatz zum wirklichen Desaster werden. So lassen sich auch bei exklusiver Leitungsverwendung bei einer Anbindung mit 50 Mbit/s maximal 22,5 GByte Daten pro Stunde übertragen. Bei einem großen File- oder Mailserver, der zurückgespielt werden muss, kann die Wiederherstellung also sehr lange dauern.

Für dieses Szenario gilt sicherzustellen, dass ähnlich zum Initial-Seeding große Datenmengen auf alternativen Medien für den Restore angeliefert werden können.

Wegen der Abhängigkeit von den Leitungskapazitäten sehe ich das Thema Cloud-Backup derzeit nur als Alternative, wenn die Leitung die entsprechenden Up- und Download-Bandbreiten bietet oder die täglich zu übertragenden Datenmengen überschaubar sind – also primär für Großkonzerne oder Kleinunternehmen.

Ob unternehmenskritische Daten zum Zwecke der Datensicherung in fremde Hände gegeben werden, muss jeder selbst entscheiden. Zu bedenken ist, dass im Falle einer Insolvenz eines Cloud-Dienstleisters der Zugriff auf die Sicherungsdaten nicht mehr möglich sein kann.

  Früher galt die Devise ein Backup ist kein geeigneter Archivierungsansatz. Mittlerweile scheinen die Grenzen immer mehr zu verschwimmen. Wie sehen Sie hier die künftige Entwicklung?

Pucher: Es gibt zwar Gemeinsamkeiten bei Backup und Archivierung aber die Anforderungen sind doch größtenteils unterschiedlich. Kommt es beim Backup primär auf die schnelle Wiederherstellbarkeit im Fehlerfall an, ist bei der Archivierung eine langfristige, möglichst unveränderbare Ablage eines abgeschlossenen Vorgangs zum Zweck der Nachvollziehbarkeit und Beweisbarkeit gefordert. Hierbei spielt auch die Auffindbarkeit eine große Rolle.

Immer mehr Software-Produkte bieten beide Möglichkeiten in einem Produkt an, bedienen die unterschiedlichen Anforderungen aber mit separaten Einstellungen und dahinter liegenden Prozessen. Ich denke, dass diese beiden Anforderungen nach und nach miteinander in kombinierten Produkten verschmelzen, die sich aus der Datensicherung heraus entwickeln. Als optimal sehe ich diesen Ansatz – wegen der unterschiedlichen Anforderungen – derzeit noch nicht an.