09.06.2015 (eh)
4.6 von 5, (5 Bewertungen)

Interview mit Novastor: komplexere Welt der Backup-Konzepte

Virtualisierung, Cloud, Software-defined Storage und Datenexplosion verändern die Rechenzentren. Hinzu kommt, dass der Großteil der Daten neuerdings unstrukturiert vorliegen wird – und somit nicht verwertbar ist. Zeitrahmen und Budget für Datensicherung und Backup laufen völlig aus dem Ruder. Wie die Zeitfenster für Backup-Prozesse weiter zu verkürzen und festgelegte Recovery-Ziele bestmöglich einzuhalten sind, darüber sprach speicherguide.de mit Stefan Utzinger, CEO vom Backup-Softwarehaus Novastor.

  Sind angesichts des rasanten Datenwachstums die bekannten Backup-Strategien vergangener Tage passe? Oder genügt es, bekannte Backup-Strategien lediglich anzupassen?

Stefan Utzinger, CEO, NovastorStefan Utzinger, CEO, NovastorUtzinger: Die zunehmende Virtualisierung erfordert neue Backup-Konzepte – traditionelle Konzepte sind hier nicht mehr effektiv anwendbar. Um die Komplexität zu minimieren und den Administrationsaufwand in realistischen Grenzen zu halten, ist eine Software notwendig, die traditionelle Konzepte für physische Server und neue Konzepte für virtuelle Umgebungen unter einer einheitlichen Oberfläche vereint.

  Müssen evtl. vollkommen neue Backup-Strategien, -Philosophien, -Strukturen oder gar -Architekturen entwickelt werden?

Utzinger: Durch die Virtualisierung und neue Infrastrukturen wird die Welt der Backup-Konzepte immer komplexer und unübersichtlicher. Um die Backup-Architekten und -Administratoren zu entlasten, sollte das Ziel hier eine Vereinheitlichung der Konzepte und der Administration sein. Dies ist eine Aufgabe der Software-Hersteller.

  Woran sollten Administratoren in den Unternehmen arbeitet, um ihr Backup für den weiterhin tobenden Daten-Tsunami fit zu halten?

Utzinger: Die Administratoren sollten bewegte Daten nicht mehr auf günstige Speicher auslagern (Tape, Longterm-Data-Retention), und eine Struktur schaffen, die eine Mehrfachhaltung der gleichen Daten überflüssig macht.

  Disk-Backup-Systeme haben die Sicherung deutlich beschleunigt, trotzdem wird immer noch mehr Leistung benötigt. Wie sieht aus Ihrer Sicht ein möglichst performanter Backup-Ansatz aus (Stichwort Caching)?

Utzinger: Disk-Backup-Systeme sind abgesehen von SSD und Flash-Speichern unübertroffen, wenn es um den schnellen, selektiven Zugriff auf einzelne Daten des Backups geht. Wenn es um die performante Sicherung großer Datenmengen geht, sind moderne Bandlaufwerke, insbesondere wenn sie im Multistreaming betrieben werden, den Disk-Systemen oft überlegen. Effizientes Caching (Memory/Flash) spielt dabei eine wichtige Rolle, kann aber das Performance-Problem bei großen Datenmengen nicht allein lösen.

  Woran erkennen Sie, dass sich in den Unternehmen die Datensicherung in einem Wandel befindet?

Utzinger: Datensicherung und Datensicherheit rücken bei den Unternehmen immer mehr in den Fokus. Dabei werden existierende Methoden und Hersteller in Frage gestellt. Entscheidungen, die vor fünf Jahren als zukunftsweisend getroffen wurden, werden unter veränderten Rahmenbedingungen erneut evaluiert. Eine Standardlösung für zuverlässige Datensicherung gibt es nicht. Unternehmen stehen neuen Lösungen offener als früher gegenüber, und testen verschiedene Konzepte. Immer häufiger spielen hier auch hybride Konzepte eine wichtige Rolle.

  Wie sieht aus Recovery-Aspekten ein möglichst perfekter Mix aus, um größere Datenmengen wieder herzustellen?

Utzinger: Die Auslegung eines Backup-Konzeptes sollte sich immer an den Recovery-Anforderungen (RTO/RPO) der einzelnen Anwendungen orientieren. Damit ergibt sich automatisch ein Mix der Konzepte. Mögliche Steuerungsgrößen sind neben der Wahl der Technologien beispielsweise die Differenzierung zwischen einem schnellen Recovery großer Datenmengen und einem schnellen Recovery einzelner, kleiner Datenobjekte.

  Die Cloud wird – vor allem von Cloud-Anbietern – als neue Auslagerungsalternative für Backup-Daten, Archivierung und Replikation propagiert. Wie sehen Sie diesen Ansatz? Ist das die Zukunft? Auch für große Enterprise-Organisationen mit richtig großen Datenbeständen?

Utzinger: Die Cloud wird zukünftig eine wichtige strategische Bedeutung als Auslagerungsalternative bekommen. Heute sind die Einsatzmöglichkeiten bei großen Datenmengen durch die noch fehlenden Bandbreiten für das Recovery beschränkt. Ein entscheidender Faktor für den Erfolg werden die heute oft noch fehlenden eindeutigen SLAs der Service-Anbieter sein. Konzepte wie OpenStack weisen aber schon den Weg, und werden sich zukünftig noch mehr durchsetzen.

.