08.05.2015 (eh)
4.1 von 5, (7 Bewertungen)

Interview mit HP: Klassische Backup-Systeme hinken nun hinterher

  • Inhalt dieses Artikels
  • Interview mit HP: Klassische Backup-Systeme hinken nun hinterher
  • Warum aktuelle Backup-Strategien tiefer in die Ursprungsdaten integriert werden müssen
  • Deshalb sollten Unternehmen Backup und Recovery nicht mehr als eigenständige Disziplinen sehen
  • Applikationen verlagern sich in die Cloud – dann kann das Backup doch auch mit umziehen?

Virtualisierung, Cloud, Software-defined Storage und Datenexplosion verändern die Rechenzentren. Hinzu kommt, dass der Großteil der Daten neuerdings unstrukturiert vorliegen wird – und somit nicht verwertbar ist. Zeitrahmen und Budget für Datensicherung und Backup laufen völlig aus dem Ruder. Wie die Zeitfenster für Backup-Prozesse weiter zu verkürzen und festgelegte Recovery-Ziele bestmöglich einzuhalten sind, darüber sprach speicherguide.de mit Guido Klenner, Manager HP Storage Category – Germany.

  Sind angesichts des rasanten Datenwachstums die bekannten Backup-Strategien vergangener Tage passe? Oder genügt es, bekannte Backup-Strategien lediglich anzupassen?

Guido Klenner, Manager HP Storage Category – GermanyGuido Klenner, Manager HP Storage Category – GermanyKlenner: Die steigende Menge an zu sichernden Daten wird zwangsläufig zu einem Umdenken in den Unternehmen führen. Klassische Systeme wie lokale Backups pro Server und zentrale Backup-Systeme, die per LAN oder SAN Daten auf zentralen Backup-Systemen sichern, hinken den aktuellen und künftigen Anforderungen hinterher. Das klassische Full-Backup, das in der Regel Daten übers Wochenende auf Band aufzeichnet, kommt heute bereits an seine Grenzen. Denn gleichzeitig mit der steigenden Datenmenge werden auch die Zeitfenster für das Backup immer kleiner. Außerdem tritt immer häufiger das Problem auf, dass mit diesen Backups die geforderten SLAs für ein Recovery gar nicht mehr einzuhalten sind.

Warum aktuelle Backup-Strategien tiefer in die Ursprungsdaten integriert werden müssen

  Müssen dann evtl. vollkommen neue Backup-Strategien, -Philosophien, -Strukturen oder gar -Architekturen entwickelt werden?

Klenner: Ja, neben der Modernisierung der Architekturen muss das Thema Datenhaltung und Gewichtung der Wertigkeit der Daten eine immer wichtigere Rolle spielen. Konzepte, die alle Daten gleichwertig über einen Kamm scheren und auf das herkömmliche Streaming beim Backup setzen, werden künftig problematisch sein.
Vielmehr müssen aktuelle Backup-Strategien tiefer in die Ursprungsdaten integriert werden, sei es durch vielfache Datenhaltung für hohe Verfügbarkeiten oder durch Technologien, die direkt vom primären Storage Daten auf sekundäre Medien transferieren können, ohne dabei zeitaufwendige API-Integrationen oder Netzwerkkopien anzufertigen. Es sind Konzepte gefordert, bei denen die Speicherarchitekturen bereits eine integrierte Backup-Intelligenz besitzen.

  Woran sollten Administratoren in den Unternehmen arbeiten, um ihr Backup für den weiterhin tobenden Daten-Tsunami fit zu halten?

Klenner: Administratoren sollten an der Effizienz, Klassifizierung und der genauen Definition von SLAs arbeiten. Viele Unternehmen halten sich heute noch an Sicherungskonzepte, die sie vor 20 Jahren definiert haben. Daten werden ohne Betrachtung ihrer jeweiligen Bedeutung und notwendigen Aktualität nach einem allgemeinen Muster gesichert. Ein Verständnis für Backup und dafür, was in diesem Bereich machbar ist, muss auch auf Applikations- und Business-Ebene in Unternehmen geschaffen werden.

Deshalb sollten Unternehmen Backup und Recovery nicht mehr als eigenständige Disziplinen sehen

  Disk-Backup-Systeme haben die Sicherung deutlich beschleunigt, trotzdem wird immer noch mehr Leistung benötigt. Wie sieht aus Ihrer Sicht ein möglichst performanter Backup-Ansatz aus (Stichwort Caching)?

Klenner: Ja, Backup-to-Disk-Systeme (B2D) haben durch ihre flexibleren Möglichkeiten zu einer deutlichen Verbesserung beim Backup geführt, und sind insbesondere für aktuelle Restore-Szenarien vorteilhaft. Jedoch ist der Performance-Gedanke im Hinblick auf B2D-Systeme alleine zu kurz gedacht. Es werden Architekturen benötigt, die bereits an der Quelle zu einer Optimierung der Sicherung führen.

  Woran erkennen Sie, dass sich in den Unternehmen die Datensicherung in einem Wandel befindet?

Klenner: Das erkennen wir daran, dass Backup und Recovery nicht als eigenständige Disziplinen gesehen werden, sondern das Thema Datenmanagement aus einem ganzheitlichen Ansatz heraus betrachtet wird.

Applikationen verlagern sich in die Cloud – dann kann das Backup doch auch mit umziehen?

  Wie sieht aus Recovery-Aspekten ein möglichst perfekter Mix aus, um größere Datenmengen wieder herzustellen?

Klenner: Im Hinblick auf Recovery-Zeiten sind Mischformen aus Primär-Storage-Datenreplikation, Snapshots und direktem Medienbruch auf B2D-Systemen sehr gut geeignet, um alle Anforderungen abdecken zu können. Sei es nun Desaster-Recovery ganzer Applikationen/LUNs, die Zurverfügungstellung von Testsystemen aus dem Backup heraus oder granularer Object-Restore – eine dedizierte »all-in-one«-Lösung ist mit klassischen Mitteln ohne diesen Mix kaum machbar. Dabei darf auch nicht vergessen werden, dass Daten unter Umständen länger als vier Wochen vorgehalten werden müssen. Somit ist auch das klassische Tape nicht zu vernachlässigen.

  Die Cloud wird – vor allem von Cloud-Anbietern – als neue Auslagerungsalternative für Backup-Daten, Archivierung und Replikation propagiert. Wie sehen Sie diesen Ansatz? Ist das die Zukunft? Auch für große Enterprise-Organisationen mit richtig großen Datenbeständen?

Klenner: Hier muss man aus meiner Sicht zwischen zwei Anwendungsfällen unterscheiden. Erstens, die Verwendung als reines Backup-Ziel. Hier steht die Frage der Wirtschaftlichkeit im Vordergrund, unter Berücksichtigung der anderen Parameter wie Performance und Sicherheit. Den zweiten Anwendungsfall sehe ich für die steigende Anzahl von Applikationen, die in die Cloud verlagert werden. Wenn das grundsätzliche Vertrauen in die Verfügbarkeit und Sicherheit der Cloud besteht, gibt es keinen Grund, nicht auch die Daten dorthin zu verlagern.

.