Anzeige
Anzeige

Interview mit Sandisk: Flash beschleunigt auch Backup-Prozesse

Virtualisierung, Cloud, Software-defined Storage und Datenexplosion verändern die Rechenzentren. Hinzu kommt, dass der Großteil der Daten neuerdings unstrukturiert vorliegen wird – und somit nicht verwertbar ist. Zeitrahmen und Budget für Datensicherung und Backup laufen völlig aus dem Ruder. Wie die Zeitfenster für Backup-Prozesse weiter zu verkürzen und festgelegte Recovery-Ziele bestmöglich einzuhalten sind, darüber sprach speicherguide.de mit Roland Rosenau, Senior Director of Sales Engineering EMEA bei Sandisk.

  Sind angesichts des rasanten Datenwachstums die bekannten Backup-Strategien vergangener Tage passe? Oder genügt es, bekannte Backup-Strategien lediglich anzupassen?

Anzeige

Roland Rosenau, Senior Director of Sales Engineering EMEA, SandiskRoland Rosenau, Senior Director of Sales Engineering EMEA, SandiskRosenau: Das Hauptproblem ist die zusätzliche Last, die bei herkömmlichen Speichersystemen durch einen Datensicherungs-Job generiert wird. Handelsübliche Festplatten sind, auch wenn sie im RAID-Verbund arbeiten, oft nicht in der Lage, den Lese-Anforderungen aktueller Backup-Geräte nachzukommen. Bei Tapes führt das zu unerwünschten Start-Stop-Operationen und bei den Nutzern zu unerwünschten Wartezeiten, weil die Speichersysteme überlastet sind. Flash-Speicher-Lösungen, die im Gegensatz zu Festplatten ohne Mechanik auskommen, können diesen Anforderungen viel besser gerecht werden.

  Müssen evtl. vollkommen neue Backup-Strategien, -Philosophien, -Strukturen oder gar -Architekturen entwickelt werden?

Rosenau: Traditionelles Backup hat seine Berechtigung und wird auch weiterhin bestehen. Strategien wie Snapshots und Spiegelung können zwar den kurzfristigen Recovery-Bedarf erfüllen. Allerdings wird es immer nötig sein, auch langfristig Datensicherungen aufzubewahren. In der 24/7-Welt des Web 2.0 gibt es kein klassisches Backup-Fenster mehr, in dem wenig Last auf den Speichersystem herrscht, um »unbemerkt« Datensicherungen durchführen zu können.

  Woran sollten Administratoren in den Unternehmen arbeitet, um ihr Backup für den weiterhin tobenden Daten-Tsunami fit zu halten?

Rosenau: Die Speicher-Lösungen müssen diesen Anforderungen gerecht werden. Die traditionelle Festplatte mit hohen Ausfallraten und niedrigem Durchsatz muss durch aktuelle Flash-Speicher-Lösungen ersetzt werden. Dieser Trend ist nicht aufzuhalten.

  Disk-Backup-Systeme haben die Sicherung deutlich beschleunigt, trotzdem wird immer noch mehr Leistung benötigt. Wie sieht es Ihrer Sicht ein möglichst performanter Backup-Ansatz aus (Stichwort Caching)?

Rosenau: Es muss ein mehrstufiges Backup geben. Aktuelle Daten, die kürzlich generiert wurden, werden am besten durch Dinge wie Snapshots oder »Incremental Forever« gesichert. Langfristige aufzubewahrende Full-Backups müssen durchgeführt werden können, ohne dass die Nutzer der Speichersysteme einen Abfall der Leistung bemerken.

  Woran erkennen Sie, dass sich in den Unternehmen die Datensicherung in einem Wandel befindet?

Rosenau: Backups sind das Stiefkind der IT. Während Prozessoren immer schneller werden und immer mehr Kerne erhalten, wird zu wenig Zeit darauf verwendet, zu überprüfen, wie lange Restores im schlimmsten Falle wirklich dauern würden. Incremental-Forever hält die Backup-Jobs kurz, das Restore dauert allerdings im Vergleich dazu lange. Immer mehr Unternehmen setzen daher auf schnelle Flash-Speicher-Lösungen, die nicht nur zusätzliche Lese-Streams für das Backup zulassen, sondern im Restore-Fall auch schnell wieder mit aktuellen Daten beladen werden können.

  Wie sieht aus Recovery-Aspekten ein möglichst perfekter Mix aus, um größere Datenmengen wieder herzustellen?

Rosenau: Schnelle Speicherlösungen, die häufige Full-Backups erlauben. Dies ist bei Recovery immer noch die schnellste Art, die Systeme wieder herzustellen. Snapshots können oft nicht lange genug vorgehalten werden, um ein Restore zum Beispiel nach einem Virenbefall oder eine schleichende Inkonsistenz von Datenbanken sicher zu stellen.

  Die Cloud wird – vor allem von Cloud-Anbietern – als neue Auslagerungsalternative für Backup-Daten, Archivierung und Replikation propagiert. Wie sehen Sie diesen Ansatz? Ist das die Zukunft? Auch für große Enterprise-Organisationen mit richtig großen Datenbeständen?

Rosenau: Eine entscheidende Rolle spielt hier das Sicherheitsdenken von Unternehmen. Wenn ich ein Full-Backup in die Cloud durchführe, schicke ich alle meine sensitiven Daten in den Cyberspace. Das ist trotz Verschlüsselungs-Technologien immer mit Risiken behaftet. Banken zum Beispiel werden diese Risiken nicht eingehen können. Zudem ist die Infrastruktur für die notwendige Bandbreite solcher Lösungsansätze sehr teuer. Kurzfristig sehe ich diesen Trend eher bei Endanwendern, die ihre Fotos sichern möchten als bei Enterprise-Organisationen.

.