04.05.2015 (eh)
4.5 von 5, (11 Bewertungen)

Interview mit TIM: Archivierungskonzepte entlasten Backup

Virtualisierung, Cloud, Software-defined Storage und Datenexplosion verändern die Rechenzentren. Hinzu kommt, dass der Großteil der Daten neuerdings unstrukturiert vorliegen wird – und somit nicht verwertbar ist. Zeitrahmen und Budget für Datensicherung und Backup laufen völlig aus dem Ruder. Wie die Zeitfenster für Backup-Prozesse weiter zu verkürzen und festgelegte Recovery-Ziele bestmöglich einzuhalten sind, darüber sprach speicherguide.de mit Bernard Benzner, Produktmanager beim Value-Added-Distributor TIM.

  Sind angesichts des rasanten Datenwachstums die bekannten Backup-Strategien vergangener Tage passe? Oder genügt es, bekannte Backup-Strategien lediglich anzupassen?

Bernard Benzner, Produktmanager, TIMBernard Benzner, Produktmanager, TIMBenzner: Bekannte Technologien und Strategien konnten bisher durchaus mit dem Datenwachstum Schritt halten, unter anderem Dank höheren Speicherdichten und günstigeren Preisen für Speichermedien. Des Weiteren bleibt die übergeordnete Zielstellung des Backups gleich: Nach wie vor müssen unternehmenskritische Daten sicher vorgehalten und bei Datenverlust schnell hergestellt werden. Dennoch kann es erforderlich sein, bestehende Methoden zu überdenken. Beispielsweise ist der veraltete Entwurf einer PowerPoint-Präsentation vermutlich nicht unternehmenskritisch, wird aber häufig trotzdem genauso gesichert, wie die Exchange-Datenbank. Die Anforderungen an die Effizienz des Backups – also die richtigen Daten mit der richtigen Technologie bei richtigem Mitteleinsatz vorzuhalten – sind erheblich gewachsen. Daher muss man Daten zunehmend differenziert behandeln und dementsprechend geeignete – möglicherweise neue – Ansätze wählen.

  Müssen evtl. vollkommen neue Backup-Strategien, -Philosophien, -Strukturen oder gar -Architekturen entwickelt werden?

Benzner: Backup ist längst keine isolierte Teildisziplin innerhalb der IT-Landschaft eines Unternehmens mehr. Mit dem rasanten Datenwachstum geht eine Verzahnung der Teilbereiche einher. Das heißt, Produktivsysteme sowie Backup- und Archiv-Systeme arbeiten Hand in Hand. Natürlich ergeben sich aus diesem Zusammenspiel neue Strukturen und es bedarf komplexerer Architekturen. Die vorrangigen Ziele des Backups bleiben die gleichen. Nur die wenigsten Unternehmen können es sich leisten, ihren bisherigen Ansatz weiter zu verfolgen.

  Woran sollten Administratoren in den Unternehmen arbeitet, um ihr Backup für den weiterhin tobenden Daten-Tsunami fit zu halten?

Benzner: Um Herr über die Datenmassen zu bleiben, muss ein Administrator idealerweise alles über seine Daten wissen. Was sind es für Daten? Wo entstehen sie? Wie wachsen sie? Wo befinden sie sich? Nur wer da den Durchblick hat, kann das Backup-Konzept auch entsprechend gestalten und an die Datenstruktur anpassen. Datenmanagement wird längst auch von den Herstellern von Backup-Software aufgegriffen. Funktionen wie Suche, Indizierung, Reporting und Analyse sollten sich Admins zu Nutze machen.

  Disk-Backup-Systeme haben die Sicherung deutlich beschleunigt, trotzdem wird immer noch mehr Leistung benötigt. Wie sieht es Ihrer Sicht ein möglichst performanter Backup-Ansatz aus (Stichwort Caching)?

Benzner: Performance hat in der Datensicherung immer zwei Dimensionen: Backup und Restore. Die in meinen Augen Wichtigere ist der Restore. Wie schnell ich im Falle eines Datenverlusts wieder an die Daten rankomme, hängt auch davon ab, welche Daten in welcher Granularität zurückgesichert werden sollen. Mehrstufige Backup-Konzepte à la Backup-to-Disk-to-Tape (B2D2T) können eine Lösung sein, um auf wachsende Performance-Anforderungen zu reagieren. Mehr Disk-Systeme mit mehr Leistung sind jedoch nicht immer die passende Antwort, sei es aus Budget-Gründen oder weil sie aufgrund der Beschaffenheit der Daten keinen Mehrwert im Vergleich zu anderen Ansätzen liefern. Die Entlastung des Backups hingegen geht mit einer Steigerung seiner Performance einher, da schlicht weniger Daten gesichert werden müssen. Dies erreicht man unter anderem durch intelligente Archivierungskonzepte. Um auch archivierte Daten im Zugriff zu halten gibt es bei einigen Herstellern mittlerweile Appliances, durch die man auf Archiven ähnlich wie auf einem herkömmlichen Dateisystem arbeiten kann. Teile der Daten werden hierbei auf der Appliance »gecached« und sind mit geringen Latenzzeiten zu adressieren.

  Wie sieht aus Recovery-Aspekten ein möglichst perfekter Mix aus, um größere Datenmengen wieder herzustellen?

Benzner: Der perfekte Mix ist immer eine sehr individuelle Sache. Wenn wir beispielweise über ehrgeizige SLAs im Bereich RTO (recovery time objective) sprechen, können Snapshots ein Lösungsszenario sein, da man mit der Rücksicherung hier sehr schnell einen vergangenen funktionsfähigen Zustand einer Applikation und/oder eines Datenbestands wiederherstellen kann. Dazu benötigt man idealerweise eine Software, die Snapshot-Management, Backup und Archivierung integriert oder miteinander verknüpft. So kann man über alle Medien hinweg Richtlinien implementieren, die ein möglichst performantes Recovery ermöglichen. Grundsätzlich gibt es jedoch zu viele Variablen, um hier eine generelle Empfehlung auszusprechen. Die Lösung hängt unter anderem von Faktoren wie Datenbeschaffenheit, IT-Infrastruktur und benötigten Service-Levels ab. Diese haben maßgeblichen Einfluss auf die ideale Lösung.

  Die Cloud wird – vor allem von Cloud-Anbietern – als neue Auslagerungsalternative für Backup-Daten, Archivierung und Replikation propagiert. Wie sehen Sie diesen Ansatz? Ist das die Zukunft? Auch für große Enterprise-Organisationen mit richtig großen Datenbeständen?

Benzner: Die Cloud bietet für verschiedene Unternehmensgrößen interessante Anwendungsszenarien. Sie ist jedoch nicht das Allheilmittel für die Anforderungen in den von Ihnen genannten Bereichen, als das sie gerne gepriesen wird. Man muss das sehr differenziert betrachten, je nachdem über welche Anwendungszwecke man spricht und ob man private, öffentliche oder hybride Ansätze betrachtet. Was allen gemein ist, sind die Herausforderungen in den Bereichen Performance und Security. Gerade in Deutschland ist man wegen Bedenken rund um die Sicherheit der Daten da häufig (auch berechtigterweise) sehr vorsichtig. Das spiegelt sich auch in der aktuellen Nutzung von externen Clouds in professionellen Umgebungen wider, die hierzulande noch sehr überschaubar ist. Die Attraktivität von Cloud-Services (wie zum Beispiel Backup-as-a-(Cloud)Service) für Unternehmen hängt davon ab, ob sie in puncto Performance und Preis/Leistung mit traditionellen Ansätzen vergleichbar sind. Das ist häufig noch nicht der Fall.

.