Anzeige

Interview mit EMC: Datenklassifizierung wird immer wichtiger

Virtualisierung, Cloud, Software-defined Storage und Datenexplosion verändern die Rechenzentren. Hinzu kommt, dass der Großteil der Daten neuerdings unstrukturiert vorliegen wird – und somit nicht verwertbar ist. Zeitrahmen und Budget für Datensicherung und Backup laufen völlig aus dem Ruder. Wie die Zeitfenster für Backup-Prozesse weiter zu verkürzen und festgelegte Recovery-Ziele bestmöglich einzuhalten sind, darüber sprach speicherguide.de mit Oliver Lotz, Director Data Protection Solutions bei EMC Deutschland.

  Sind angesichts des rasanten Datenwachstums die bekannten Backup-Strategien vergangener Tage passe? Oder genügt es, bekannte Backup-Strategien lediglich anzupassen?

Anzeige

Oliver Lotz, Director Data Protection Solutions, EMC DeutschlandOliver Lotz, Director Data Protection Solutions, EMC DeutschlandLotz: Das Datenwachstum wird sich in den nächsten fünf Jahren verzehnfachen. Zudem sind klassische Speichernetze beim Datentransfer physikalisch limitiert. Deshalb müssen die Backup-Strategie, das Backup-Medium und auch die Service-Level-Agreements (SLA) an diese Herausforderungen angepasst werden. So wird Datenklassifizierung immer wichtiger werden, um den Wiederanlauf-Zeitpunkt nach einem Ausfall (RPO) und die Wiederanlauf-Dauer nach einer Unterbrechung (RTO) definieren zu können.

  Müssen evtl. vollkommen neue Backup-Strategien, -Philosophien, -Strukturen oder gar -Architekturen entwickelt werden?

Lotz: Es reicht nicht, nur die Strategie zu ändern. Architektur und Datenspeicher müssen für jeden einzelnen Anwendungsfall geprüft und angepasst werden, abhängig von den Applikationen, den verwendeten Speichersystemen, der Integration von Mobilgeräten und von den Clientsystemen. Angesichts einer Vielzahl von Speichermöglichkeiten übernimmt die Data-Protection-Software die zentrale Rolle. Diese muss in der Lage sein, virtuelle wie physikalische Systeme zu sichern, eine Applikationsintegration zu gewährleisten und verschiedene Backup-Speicher anzusprechen. Der Backup-Speicher kann sowohl on-premise im eigenen Rechenzentrum als auch off-premise, zum Beispiel als Cloud-Dienst, zur Verfügung gestellt werden. Entscheidend ist auch, dass die gesicherten Daten unabhängig vom Speicherort durchsucht werden können.

  Woran sollten Administratoren in den Unternehmen arbeitet, um ihr Backup für den weiterhin tobenden Daten-Tsunami fit zu halten?

Administratoren spüren den Druck neuer Technologien (Grafik/Quelle: EMC Global Data Protection Index für Deutschland)Administratoren spüren den Druck neuer Technologien (Grafik/Quelle: EMC Global Data Protection Index für Deutschland)Lotz: Sie sollten vor allem daran denken, die Verantwortlichen für die jeweiligen Anwendungen und die Datenbankadministratoren in den Prozess einzubinden. Wenn Fachanwender Backup und Restore in Eigenregie durchführen können, werden die IT-Administratoren entlastet. Sie können sich darauf konzentrieren, einen zentralen Dienst für das Backup der IT-Infrastruktur bereitzustellen. Ein Backup-Administrator allein wird angesichts des Daten-Tsunami nicht mehr in der Lage sein, alle Aufgaben zu erfüllen.

  Disk-Backup-Systeme haben die Sicherung deutlich beschleunigt, trotzdem wird immer noch mehr Leistung benötigt. Wie sieht es Ihrer Sicht ein möglichst performanter Backup-Ansatz aus (Stichwort Caching)?

Lotz: Caching-Systeme sind nicht unbedingt die Lösung. Viel entscheidender ist, wie intelligent ein Client, Applikationsserver oder Datenspeicher seine Daten in einen Backup-Speicher schreibt. Es ist effektiver, Deduplizierung und Komprimierung der Daten auf den Client oder auf den Datenspeicher zu verlagern. Dann werden wesentlich weniger Daten über das Netzwerk und an den Backup-Speicher übertragen.

  Woran erkennen Sie, dass sich in den Unternehmen die Datensicherung in einem Wandel befindet?

Data-Domain-Speichersysteme für High-Performance- und Low-Latency-Backups (Bild: EMC)Data-Domain-Speichersysteme für High-Performance- und Low-Latency-Backups (Bild: EMC)Lotz: Immer weniger Kunden fragen Tape-basierte Lösungen an. Sie sind begeistert von den neuen Technologien, die insgesamt auch günstiger für sie sind. Für High-Performance- und Low-Latency-Backups greifen die Kunden zu klassischen Data-Domain-Speichersystemen und zunehmend auch zu Cloud- und Scale-Out-Storage-Systemen. Letztere bedienen wir mit dem »EMC Elastic Cloud System« (ECS) und »Isilon«. Für die Kunden wird es immer wichtiger, dass sie das Backup-Datenmanagement mit »EMC Networker« komplett von einer Oberfläche aus steuern können. In der Vergangenheit haben Kunden vorwiegend Nischenprodukte für spezielle Anwendungsfälle angefragt.

  Haben Sie ein besonderes Best-Practise-Beispiel aus dem Backup-Bereich, das Sie beeindruckt hat?

Lotz: Ein Enterprise-Kunde von uns stand vor der Herausforderung, Multi-Petabyte-Datenbestände in einem definierten Zyklus zu sichern. Unsere Aufgabe war, eine Infrastruktur bereitzustellen, die auf die Anforderungen des Kunden eingeht und dynamisch mitwächst. Wir haben diese Aufgabe gelöst, indem wir in die stark wachsende Kundenumgebung zuerst Networker integriert haben. Im nächsten Schritt haben wir die Data-Domain-VTL-Software eingeführt, die mehrerer Bandgeräte auf Data-Domain-Systemen emuliert. Im weiteren Verlauf haben wir die Infrastruktur im produktiven Betrieb auf Client-Deduplizierung vorbereitet und im Design eine On-premise-Cloud-Lösung für Daten mit geringer RTO berücksichtigt. So konnten wir die Backup-Umgebung auf das dynamisches Wachstum und die Anforderungen des Kunden anpassen.

  Wie sieht aus Recovery-Aspekten ein möglichst perfekter Mix aus, um größere Datenmengen wieder herzustellen?

Ursachen und Auswirkungen von Datenverlustvorfällen (Grafik/Quelle: EMC Global Data Protection Index für Deutschland)Ursachen und Auswirkungen von Datenverlustvorfällen (Grafik/Quelle: EMC Global Data Protection Index für Deutschland)Lotz: Der richtige Mix hängt vom Anwendungsfall ab. Wenn Anwendungs- und Datenverfügbarkeit innerhalb eines Rechenzentrums und auch über Entfernungen hinweg im Mittelpunkt stehen, dann ist VPLEX eine Lösung. Liegt das Augenmerk auf der Wiederherstellung von Anwendungen zu jedem beliebigen Zeitpunkt, dann bietet sich der Einsatz von »EMC RecoverPoint« an. Für ein konsolidiertes Backup, Archivierung und Disaster Recovery ist eine Data-Domain mit schneller Deduplizierung die erste Wahl. Auf einer Data-Domain können mit »Instant Access« auch virtuelle Maschinen direkt gestartet werden, ohne dass überhaupt ein Restore erfolgen muss.

  Die Cloud wird – vor allem von Cloud-Anbietern – als neue Auslagerungsalternative für Backup-Daten, Archivierung und Replikation propagiert. Wie sehen Sie diesen Ansatz? Ist das die Zukunft? Auch für große Enterprise-Organisationen mit richtig großen Datenbeständen?

Lotz: Die Cloud und die dritte Plattform nimmt sicherlich einen großen Stellenwert in der IT ein. Einige native Cloud-Anwendungen sehen keine Sicherung vor. Sie können ohne Cloud-Storage überhaupt nicht gesichert werden. Mit »EMC Spanning« bieten wir dafür eine Lösung. Cloud-Storage ist auch gut für Low-Latency-Anwendungen oder Daten mit geringem SLA. Das Elastic-Cloud-Storage-System (ECS) von EMC kann zum Beispiel Cloud-Storage im eigenen Rechenzentrum bereitstellen und auch in einen S3-kompatiblen Speicher off-premise verlagern.

.