11.05.2015 (eh)
2.7 von 5, (3 Bewertungen)

Interview mit Arcserve: Besser wäre Datenverfügbarkeitsstrategie

Virtualisierung, Cloud, Software-defined Storage und Datenexplosion verändern die Rechenzentren. Hinzu kommt, dass der Großteil der Daten neuerdings unstrukturiert vorliegen wird – und somit nicht verwertbar ist. Zeitrahmen und Budget für Datensicherung und Backup laufen völlig aus dem Ruder. Wie die Zeitfenster für Backup-Prozesse weiter zu verkürzen und festgelegte Recovery-Ziele bestmöglich einzuhalten sind, darüber sprach speicherguide.de mit Andreas Lappano, Director Sales DACH bei Arcserve.

  Sind angesichts des rasanten Datenwachstums die bekannten Backup-Strategien vergangener Tage passe? Oder genügt es, bekannte Backup-Strategien lediglich anzupassen?

Anzeige

Andreas Lappano, Director Sales DACH, ArcserveAndreas Lappano, Director Sales DACH, ArcserveLappano: Heutzutage geht es nicht mehr nur darum, Daten zu sichern, sondern vielmehr geschäftswichtige Service-Level-Agreements (SLA) zu halten. Wie alt sind die Daten, wie lang darf es maximal dauern, bis die Daten wieder verfügbar sind. Daran soll sich eine Backup-Strategie richten. In diesem Zusammenhang würde ich auch nicht mehr von einer »Backup-Strategie« reden, sondern von einer Datenverfügbarkeitsstrategie.

  Ob wir es nun Backup-Strategie nennen, oder nicht – müssen dann evtl. neue Backup-Philosophien, -Strukturen oder gar -Architekturen entwickelt werden?

Lappano: Aus der Perspektive des Kunden müssen heutzutage die Verfügbarkeiten geachtet werden. Daten, Server und Applikationen müssen verfügbar sein, wenn sie gebraucht werden. Dabei muss der Kunde auch wissen, welche Systeme kritisch für das Unternehmen sind. Zum Beispiel gibt es vielleicht Systeme, bei denen es ausreicht, wenn sie nur einmal am Tag gesichert werden. Es kommen auch andere Faktoren dazu: Ist das Unternehmen dezentral organisiert, muss konsolidiert oder dedupliziert werden? Wie sieht es mit Big-Data-Anforderungen aus? Der Kunde muss eventuell seine Strategie ändern, um Daten und Server verfügbar zu halten, und den Ansprüchen der eigenen Kunden und Unternehmen gerecht zu werden.

  Woran sollten Administratoren in den Unternehmen arbeiten, um ihr Backup für den weiterhin tobenden Daten-Tsunami fit zu halten?

Lappano: Vor allem an der internen Kommunikation! Ein Administrator muss zum einen wissen, wie seine IT-Landschaft aussieht und wer was wann braucht – auch im Projektbereich, in dem bestimmte Ressourcen vielleicht nur kurzfristig gebraucht werden. Dafür muss er auch mit seinen Kollegen kommunizieren, um SLAs gemeinsam zu konzipieren und die Strategie danach auszurichten. Detaillierte Analysen müssen durchgeführt werden und grundsätzlich muss zukunftsorientierter mit Blick auf kommende Anforderungen gearbeitet werden.

  Disk-Backup-Systeme haben die Sicherung deutlich beschleunigt, trotzdem wird immer noch mehr Leistung benötigt. Wie sieht aus Ihrer Sicht ein möglichst performanter Backup-Ansatz aus (Stichwort Caching)?

Lappano: Das kann man pauschal nicht beantworten. Grundsätzlich soll jeder Ansatz möglichst performant sein – im Rahmen der finanziellen, technischen und strukturellen Möglichkeiten des Unternehmens.

  Woran erkennen Sie, dass sich in den Unternehmen die Datensicherung in einem Wandel befindet?

Lappano: Die Unternehmen fangen an, mehr über SLAs nachzudenken und ihre Datensicherungsstrategien danach auszurichten. Allerdings ist es nicht immer möglich, diesen neuen Ansatz alleine umzusetzen, und hier kommen vor allem Channel-Partner als Trusted-Advisor ins Spiel.

  Haben Sie ein besonderes Best-Practise-Beispiel aus dem Backup-Bereich, das Sie beeindruckt hat?

Lappano: Ich möchte nichts hervorheben. Es gibt Kunden, die sehr innovativ sind. Grundsätzlich ist aber jedes Projekt, in dem der Kunde bereit ist, seine Backup-Strategie zu verändern und neue Wege zu gehen, ein »Best Practice«.

  Die Cloud wird – vor allem von Cloud-Anbietern – als neue Auslagerungsalternative für Backup-Daten, Archivierung und Replikation propagiert. Wie sehen Sie diesen Ansatz? Ist das die Zukunft? Auch für große Enterprise-Organisationen mit richtig großen Datenbeständen?

Lappano: Erstens muss man zwischen einer Private-, Public- und Hybrid-Cloud unterscheiden. Man muss auch immer die Restore-Zeiten berücksichtigen. Es macht wenig Sinn, große Datenbestände in die Cloud auszulagern, wenn eine schnelle zeitnahe Rücksicherung aus der Cloud erfolgen muss. Dann kann es schnell passieren, dass die Datenbestände zu groß sind und die verfügbare Bandbreite zu klein ist. Als Auslagerungsort beispielsweise für die Archivierung oder Abbildung eines zweiten Rechenzentrums ist die Cloud durchaus eine Alternative bzw. auch im Rahmen eines Disaster-Recovery-Ansatzes.

.