06.05.2015 (eh)
4 von 5, (4 Bewertungen)

Interview mit Quantum: Archiv nähme Druck vom Backup-Kessel

Virtualisierung, Cloud, Software-defined Storage und Datenexplosion verändern die Rechenzentren. Hinzu kommt, dass der Großteil der Daten neuerdings unstrukturiert vorliegen wird – und somit nicht verwertbar ist. Zeitrahmen und Budget für Datensicherung und Backup laufen völlig aus dem Ruder. Wie die Zeitfenster für Backup-Prozesse weiter zu verkürzen und festgelegte Recovery-Ziele bestmöglich einzuhalten sind, darüber sprach speicherguide.de mit Stéphane Estevez, Sr. Product Marketing Manager EMEA bei Quantum.

  Sind angesichts des rasanten Datenwachstums die bekannten Backup-Strategien vergangener Tage passe? Oder genügt es, bekannte Backup-Strategien lediglich anzupassen?

Stéphane Estevez, Sr. Product Marketing Manager EMEA, QuantumStéphane Estevez, Sr. Product Marketing Manager EMEA, Quantum

Estevez: Zuerst gilt es, zwischen Backup und Archiv zu unterscheiden. Durch das Backup sollen Daten möglichst schnell und einfach wieder hergestellt werden können. Sinn der Archivierung hingegen ist die langfristige Aufbewahrung und Erhaltung von Daten. Da die Daten weiter in den Himmel wachsen, das Backup-Fenster aber gleich bleibt – der Tag hat schließlich nur 24 Stunden –, erreicht jedes Unternehmen früher oder später den Punkt, an dem definiert werden muss, welche Daten weiter Teil des Backup-Workflows sein sollen. So kann man schon mal unstrukturierte Daten, für die kein Backup benötigt wird, aus dem Backup-Stream entfernen und in die Archivierungsinfrastruktur schieben. Durch diese Strategie wird wieder Platz auf dem Primärspeicher, im Netzwerk und in der Backup-Infrastruktur freigegeben – somit können nicht nur Kosten reduziert sondern auch die Backup-SLAs eingehalten werden.

  Müssen evtl. vollkommen neue Backup-Strategien, -Philosophien, -Strukturen oder gar -Architekturen entwickelt werden?

Estevez: Mit der Implementierung eines Archivierungs- anstelle eines »Alles ins Backup«-Ansatzes kann ein Teil des Datenwachstums vom Primärspeicher und Backup direkt auf eine Archivierungslösung geleitet werden. So kann die Backup-Infrastruktur weiterhin genutzt werden. Ein großer Treiber hinter dem Datenwachstum stellt die zunehmende Ausbreitung von VMs dar – das erhöht allmählich die Dringlichkeit, das Backup-Format der VMs von proprietär zu nativ zu transformieren. Denn mit einem nativen und portablen Backup-Format muss man sich keine Sorgen machen, ob eine Backup-Applikation die VMs auch in Zukunft noch wiederherstellen kann. Aber bestehende Backup-Applikationen sind nur schwer zu verdrängen. Ein pragmatischer Ansatz wäre, mit der Implementierung eines Archivs zu beginnen. Das nimmt erstmal Druck vom Kessel und man kann in Ruhe überlegen, wie man die Backup den Anforderungen nach Portabilität und Sicherung im nativen Format entsprechen kann.

  Woran sollten Administratoren in den Unternehmen arbeiten, um ihr Backup für den weiterhin tobenden Daten-Tsunami fit zu halten?

Quantums Vision des Data-defined Data-Center: die richtige Mischung zwischen Backup und Archivierung machts (Bild: Quantum)Quantums Vision des Data-defined Data-Center: die richtige Mischung zwischen Backup und Archivierung machts (Bild: Quantum)Estevez: Bevor man über Maßnahmen nachdenkt, sollte man eine Datenüberprüfung vornehmen, oder in anderen Worten: einen Fußabdruck der Daten nehmen. Welche Daten müssen wirklich auf meinem teuren Primärspeicher vorgehalten werden? Was könnte ich theoretisch archivieren? Es gibt allerhand Software-Lösungen, die bei der Evaluation unstrukturierter Daten helfen und Daten zur richtigen Zeit auf die passende Speicherebene schieben – mit gewünschtem Kostenerfolg. Archivierung ist nicht nur gesetzlich vorgeschrieben, sondern muss auch aus betriebswirtschaftlicher Perspektive betrachtet werden.

  Disk-Backup-Systeme haben die Sicherung deutlich beschleunigt, trotzdem wird immer noch mehr Leistung benötigt. Wie sieht es Ihrer Sicht ein möglichst performanter Backup-Ansatz aus (Stichwort Caching)?

Estevez: Deduplizierungs-Appliances waren für Backup-Administratoren die Allzweckwaffe, wenn es um die Bewältigung der Datenexplosion ging. Da Backups naturgemäß redundant sind, hat sich Deduplizierung als enorm wirksames Tool bewiesen, um eine große Anzahl Backups auf weniger Speicher zu sichern und den Bandbreitenbedarf für den Replikationsprozess zu reduzieren. Aber Deduplizierungs-Appliances werden der nächste Flaschenhals. Der Daten-Tsunami fordert neue Ansätze und Architekturen. Gerade Anbieter von Deduplizierungstechnologien müssen sich neuen Speichertechnologien wie »Dynamic Disk Pools« widmen, um Festplatten mit hoher Speicherdichte ohne die klassischen Schattenseiten von RAID (zum Beispiel lange Wiederherstellungszeiten bei großen Festplatten) anbieten zu können.

  Woran erkennen Sie, dass sich in den Unternehmen die Datensicherung in einem Wandel befindet?

Estevez: Während der KMU-Markt noch nach Archivierungslösungen sucht, um dem Datenwachstum beizukommen und Primärspeicher- sowie Backup-Kosten zu reduzieren, ist man auf Enterprise-Ebene schon etwas weiter: man hat aufgehört, alles zu sichern. Stattdessen setzt man auf Archivierungsansätze mit mehreren Speicherebenen. Unstrukturierte Daten werden klassifiziert und abhängig von ihrem Wert, Zugriffszeiten etc. auf unterschiedlichen Speicherebenen archiviert. So benötigt ein pharmazeutisches Unternehmen vielleicht eine Object-Storage-Lösung für die Archivierung von Forschungsdaten, und eine Tape-Library für alte PST-Files.

  Wie sieht aus Recovery-Aspekten ein möglichst perfekter Mix aus, um größere Datenmengen wieder herzustellen?

Estevez: Backups werden oft repliziert, aber 99,9 Prozent der Restores geschehen lokal vor Ort. Obwohl wir mittlerweile problemlos eine große Datenmenge mittels Deduplizierung an einen anderen Standort oder in die Cloud replizieren können, ist das Datenwachstum sogar bei deduplizierten Backups schneller als die Konnektivität. Um große Datenmengen in einer Außenstelle wiederherzustellen eignen sich am besten Tapes oder Disks vor Ort, da die Leitungen in die Außenstelle meist nicht schnell genug sind.

  Die Cloud wird – vor allem von Cloud-Anbietern – als neue Auslagerungsalternative für Backup-Daten, Archivierung und Replikation propagiert. Wie sehen Sie diesen Ansatz? Ist das die Zukunft? Auch für große Enterprise-Organisationen mit richtig großen Datenbeständen?

Estevez: Die Cloud ist eine tolle Lösung für die Replikation von Backups und sogar noch besser für die Archivierung. Doch für eine große Menge Daten wird der Datentransport zum entscheidenden Kriterium. Wenn die Replikation von Daten in die Cloud mit Deduplizierung ein leichtes ist, wie bewerkstellige ich die Wiederherstellung eines kompletten Rechenzentrums aus der Cloud? Wenn man sicherstellen will, dass Daten wiederhergestellt werden können – und sei es mit Unterstützung von DHL –, kommt nativen Backup-Formaten und deren Portabilität entscheidende Bedeutung zu.

.