30.04.2015 (eh)
3.6 von 5, (8 Bewertungen)

Interview mit Barracuda: Plädoyer für globale Deduplizierung

Virtualisierung, Cloud, Software-defined Storage und Datenexplosion verändern die Rechenzentren. Hinzu kommt, dass der Großteil der Daten neuerdings unstrukturiert vorliegen wird – und somit nicht verwertbar ist. Zeitrahmen und Budget für Datensicherung und Backup laufen völlig aus dem Ruder. Wie die Zeitfenster für Backup-Prozesse weiter zu verkürzen und festgelegte Recovery-Ziele bestmöglich einzuhalten sind, darüber sprach speicherguide.de mit Stefan Schachinger, Consulting System Engineer – Data Protection bei Barracuda Networks.

  Sind angesichts des rasanten Datenwachstums die bekannten Backup-Strategien vergangener Tage passe? Oder genügt es, bekannte Backup-Strategien lediglich anzupassen?

Stefan Schachinger, Consulting System Engineer – Data Protection, Barracuda NetworksStefan Schachinger, Consulting System Engineer – Data Protection, Barracuda NetworksSchachinger: Traditionelle Backup-Systeme, die mit Vollsicherungen auf Offline-Speichermedien arbeiten, können die heutigen Anforderungen hinsichtlich Speicherbedarf und Wiederherstellungszeit nicht mehr erfüllen. Um das Datenwachstum in Griff zu bekommen, ist es nötig, mit inkrementellen Sicherungen und globaler Deduplizierung zu arbeiten, um so den Speicherbedarf auf ein Minimum zu reduzieren. In der Praxis sehen wir dadurch eine bis zu 50-fache Datenreduktion. Ein weiteres Problem besteht in der Dauer für Backups, da die Daten rasant wachsen, sich aber das Backup-Fenster dabei nicht verlängert. Auch das kann durch inkrementelle Sicherungen gelöst werden.

  Müssen evtl. vollkommen neue Backup-Strategien, -Philosophien, -Strukturen oder gar -Architekturen entwickelt werden?

Schachinger: Die Anforderungen an Backup-Systeme haben sich in den letzten Jahren stark verändert. Die Erstellung von Sicherungen muss vollständig automatisiert und so einfach wie möglich abgewickelt werden. Hinsichtlich Wiederherstellungen steht vor allem die schnelle Verfügbarkeit im Vordergrund. Katastrophen sind unverändert das Worst-Case-Szenario, auf das man vorbereitet sein muss. Im Tagesgeschäft werden aber andere Anforderungen an Sicherungssysteme gestellt. Administratoren haben eine Vielzahl von Aufgaben. Und daher müssen einzelne Server bis hin zu einzelnen Dateien oder Ordner in kurzer Zeit wiederherstellbar sein. Mit Backup-to-Disk-Systemen kann somit die Produktivität enorm gesteigert werden. Auch die obligatorischen Wiederherstellungstests können mit überschaubarem Aufwand durchgeführt werden. Das stellt wiederum sicher, dass im Katastrophenfall der Betrieb reibungslos wiederhergestellt werden kann.

  Woran sollten Administratoren in den Unternehmen arbeiten, um ihr Backup für den weiterhin tobenden Daten-Tsunami fit zu halten?

Schachinger: Die Datenexplosion ist in den Griff zu bekommen, indem man Daten gemäß ihrer Verwendung ablegt. Unternehmen müssen aus verschiedensten Gründen Daten für sehr lange Zeit aufbewahren. Die Größe von Mail- oder Fileservern kann durch Archivierung massiv reduziert werden. Damit bleiben sowohl Speicherbedarf als auch Backup-Dauer im Rahmen. Archive verändern sich sinngemäß wenig. Die Daten werden inkrementell gesichert und das Unternehmen ist geschützt.

  Disk-Backup-Systeme haben die Sicherung deutlich beschleunigt, trotzdem wird immer noch mehr Leistung benötigt. Wie sieht es Ihrer Sicht ein möglichst performanter Backup-Ansatz aus (Stichwort Caching)?

Schachinger: Die Erstellung von Backups ist performant, wenn Daten intelligent übertragen und gesichert werden. Inkrementelle Sicherungen mit Deduplizierung an der Backup-Quelle stellen sicher, dass nur tatsächlich benötigte Daten übertragen und gespeichert werden. Globale Deduplizierung erkennt dabei auch, wenn Daten schon von anderen Server oder anderen Standorten übertragen wurden.

  Woran erkennen Sie, dass sich in den Unternehmen die Datensicherung in einem Wandel befindet?

Schachinger: Dass ein Wandel bevorsteht, zeichnet sich sehr oft dadurch ab, dass die bestehenden Sicherungssysteme an ihre Grenzen stoßen. Das bedeutet in den meisten Fällen, dass das Backup entweder zu lange dauert, oder einfach zu groß wird. Sehr oft auch beides. Mit effizienten Sicherungsansätzen kann das gelöst werden. Auch die Archivierung von Daten und E-Mails spielt hier eine wesentliche Rolle. Denn dadurch entlasten Anwender die Produktivsysteme deutlich.

  Haben Sie ein besonderes Best-Practise-Beispiel aus dem Backup-Bereich, das Sie beeindruckt hat?

Schachinger: Erst kürzlich konnten wir bei einem europaweit agierenden Produktionsbetrieb mit einer Vielzahl von kleineren Außenstellen mit teils sehr niedriger Bandbreite das bestehende Backup durch ein zentrales Backup an zwei Standorten mit gegenseitiger Replikation ersetzen. Das wäre mit herkömmlichen Technologien niemals möglich gewesen, und zeigt sehr beeindruckend, wie effizient unsere Technologie arbeitet.

  Wie sieht aus Recovery-Aspekten ein möglichst perfekter Mix aus, um größere Datenmengen wieder herzustellen?

Schachinger: Für die Datenwiederherstellung gibt es je nach Vorfall unterschiedlichste Anforderungen, die von einer zeitgemäßen Backuplösung abgedeckt werden müssen. Eine komplette Wiederherstellung aller Systeme muss natürlich berücksichtigt werden, passiert aber in der Praxis sehr selten. In einem solchen Szenario muss die Backup-Lösung performant sein, um die Datenmengen zu bewerkstelligen. Virtualisierung bietet hier einen großen Vorteil, da damit ein Notfallbetrieb direkt aus dem Backup realisiert werden kann, ohne zuvor alles wiederherstellen zu müssen. Im täglichen Betrieb ist es sehr wichtig, dass auch einzelne Dateien und Ordner mit nur wenigen Mausklicks wiederhergestellt werden können.

  Die Cloud wird – vor allem von Cloud-Anbietern – als neue Auslagerungsalternative für Backup-Daten, Archivierung und Replikation propagiert. Wie sehen Sie diesen Ansatz? Ist das die Zukunft? Auch für große Enterprise-Organisationen mit richtig großen Datenbeständen?

Schachinger: Nun, die Cloud eignet sich hervorragend, um die Anforderung eines Offsite-Backups für Katastrophenfälle abzubilden. Um auch größere Datenbestände schnell wiederherstellen zu können, empfiehlt es sich aber, trotzdem auch ein lokales Backup zu haben. Unternehmen, die ihre Infrastruktur komplett in die Cloud auslagern, verlangen vermehrt auch nach Backups durch Drittanbieter in der Cloud. In diesem Fall ist diese Anforderung durchaus sehr sinnvoll, um nicht von einem einzigen Anbieter abhängig zu sein.

.