Interview mit Paragon: Anforderungsmatrix der Kunden ändert sich
Virtualisierung, Cloud, Software-defined Storage und Datenexplosion verändern die Rechenzentren. Hinzu kommt, dass der Großteil der Daten neuerdings unstrukturiert vorliegen wird – und somit nicht verwertbar ist. Zeitrahmen und Budget für Datensicherung und Backup laufen völlig aus dem Ruder. Wie die Zeitfenster für Backup-Prozesse weiter zu verkürzen und festgelegte Recovery-Ziele bestmöglich einzuhalten sind, darüber sprach speicherguide.de mit Miro Milos, Director B2B Marketing & Partner Sales EMEA bei Paragon Software.
Sind angesichts des rasanten Datenwachstums die bekannten Backup-Strategien vergangener Tage passe? Oder genügt es, bekannte Backup-Strategien lediglich anzupassen?
Miro Milos, Director B2B Marketing & Partner Sales EMEA, Paragon SoftwareMilos: Grundsätzlich sollten einmal implementierte Backup-Strategien regelmäßig überprüft werden, ob sie die eigenen Ziele immer noch erreichen. Eine Backup-Strategie leitet sich zudem aus der zugrunde liegenden IT-Infrastruktur ab. Unternimmt ein Unternehmen signifikante infrastrukturelle Änderungen, so werden die bekannten Backup-Strategien passe sein, da beispielsweise eine IT-Landschaft aus rein physischen Maschinen andere Ansprüche an Backup-Lösungen stellt wie sie von einer hybriden IT-Umgebung (physisch, virtuell mit unterschiedlichen Hypervisoren) gefordert werden. Steigert ein Unternehmen lediglich die Performance bereits eingesetzter Systeme, wird in den meisten Fällen eine Anpassung bekannter Backup-Strategien ausreichen. Trotzdem kann es aufgrund der rasant steigende Datenmenge zur Intensivierung des Spannungsverhältnisses zwischen dem Return-To-Operation (RTO) und dem Recovery-Point-Objective (RPO) kommen, was eine Fortführung von angepassten bekannten Backup-Prinzipien erschwert.
Müssen evtl. vollkommen neue Backup-Strategien, -Philosophien, -Strukturen oder gar -Architekturen entwickelt werden?
Milos: In den letzten Jahren haben sich einige neue Backup-Strategien und Philosophien entwickelt, die allerdings erst möglich waren, nachdem neue Architekturen und Strukturen zur Verfügung standen. Wir bei Paragon können beispielsweise auf die Entwicklung von agentenlosem Replizieren virtueller Maschinen (Stichwort: Failover), dem Verwalten aller Daten in einem Backup-Container und der Implementierung von Mechanismen, die den Traffic im Netzwerk bzw. die Ressourcenauslastung steuern helfen, zurückblicken. Ohne die Entwicklung einer neuen Software-Architektur wären wir nicht in der Lage unseren Kunden eine skalierbare, flexible und universelle Datensicherungslösung in die Hand zu geben, die den aktuellen Anforderungen gerecht wird.
Woran sollten Administratoren in den Unternehmen arbeitet, um ihr Backup für den weiterhin tobenden Daten-Tsunami fit zu halten?
Milos: Salopp formuliert: Sie sollten tunlichst vermeiden, dass es ein Daten-Tsunami wird. Die wichtigste Frage war, ist und wird auch in Zukunft sein: Welche Daten möchte ich wie schnell wiederherstellbar zur Verfügung habe? Ein Backup ist immer nur dann gut, wenn es auch meinen Ansprüchen entsprechend wiederhergestellt werden kann. Schnell wachsende Datenbestände, die nicht geschäftskritisch sind, können mit auf Archivierung ausgerichteten Backup-Methoden in regelmäßigen Abständen gesichert und auf kostengünstigen – oft ausgelagerten Datenspeichern – abgelegt werden. Je wichtiger die Daten für die Fortführung des Unternehmensbetriebs sind, umso kürzer müssen die Backup-Zeitfenster (Stichwort: kontinuierliche Datensicherung) sein und die Sicherungen so nah wie möglich am Ursprungsort für eine Disaster Recovery vorgehalten werden. Die Administratoren werden nicht umhin kommen nach Lösungen Ausschau zu halten, die möglichst viele Eventualitäten abdecken können, und trotzdem noch einfach zu implementieren und zu bedienen sind. Denn leider steigen – obwohl sich das viele IT-Verantwortliche wünschen – die eigenen IT-Ressourcen nicht linear mit den Anforderungen an die IT-Systeme.
Disk-Backup-Systeme haben die Sicherung deutlich beschleunigt, trotzdem wird immer noch mehr Leistung benötigt. Wie sieht es Ihrer Sicht ein möglichst performanter Backup-Ansatz aus (Stichwort Caching)?
Milos: Der Begriff Performance wird oft nur mit der Backup-Geschwindigkeit gleichgesetzt. Die steigende Komplexität und Verbundenheit der IT-Systeme vor allem in Netzwerken erfordert von jeder Applikation ein gewisses »Fingerspitzengefühl« hinsichtlich der Belastung der Ressourcen. Performant ist ein Backup-Ansatz unter anderem dann, wenn ohne wesentlichen Einfluss auf die produktiven Prozesse schnelle, wiederherstellbare Backups in geringen Zeitabständen möglich sind. Dies erreicht man am besten durch eine mindestens zweistufige Vorgehensweise in der Storage-Architektur.
Wie sieht diese zweistufige Vorgehensweise aus?
Milos: Erstes Backup unkomprimiert im Netzwerk ablegen, danach eine komprimierte Kopie außerhalb der Produktivsysteme erstellen und ablegen. Die Backup-Performance lässt sich dann zusätzlich durch die Nutzung inkrementeller Backup-Erstellung, von Deduplizierungsmechanismen und Netzwerk-Throttling-Verfahren individuell auf die eigenen Bedürfnisse optimieren. Leistungsfähigere Festplatten (zum Beispiel SSDs, RDX-Laufwerke) helfen die Backup-Performance zu steigern, stellen aber auch weitere Anforderungen an die Backup-Lösungen. Je nach Festplattenhersteller wird das Caching anders gesteuert und dies kann dazu führen, dass die Daten nicht wiederhergestellt werden können. Hierzu sollte sich kein Administrator scheuen, Kontakt zum technischen Support der Backup-Anbieter aufzunehmen, um je nach eingesetzter Hardware die richtigen Einstellungen vorzunehmen.
Woran erkennen Sie, dass sich in den Unternehmen die Datensicherung in einem Wandel befindet?
Milos: Die Ansprüche an uns als Spezialist im Datensicherungsbereich ändern sich im Kundendialog. Vor noch gar nicht allzu langer Zeit waren die Gespräche derart strukturiert, dass die Kunden ganz genau wussten, wonach sie suchten, und wir als Anbieter mehr oder weniger eine Anforderungsmatrix des Kunden auszufüllen hatten, die er als Grundlage für seine Kaufentscheidung genommen hat. Heute merken wir, dass die Kunden unsicher sind, wie denn ihre Anforderungsmatrix aussieht, und wir haben uns in Folge vom reinen Lösungsanbieter zum Kundenberater entwickelt. Kunden sind dankbar, wenn sie im Gespräch mit uns über die Sinnhaftigkeit unterschiedlicher technologischen Mechanismen aufgeklärt werden, die je nach bestehender IT-Infrastruktur anders ausfällt.
Haben Sie ein besonderes Best-Practise-Beispiel aus dem Backup-Bereich, das Sie beeindruckt hat?
Milos: Unser langjähriger Kunde Baß Antriebstechnik ist vor kurzem an uns herangetreten, um eine Backup- und Disaster-Recovery-Software für die modernisierte IT-Infrastruktur zu finden. Gesucht wurde eine Disaster-Recovery-Lösung für alle physischen und virtuellen Maschinen im Netzwerk an allen drei Standorten, die zentral vom Hauptstandort aus administriert und überwacht werden kann. Überzeugt haben neben unserem professionellen Support letztendlich die Einfachheit bei der Installation und Handhabung sowie die Möglichkeit, dass jederzeit Maschinen zum Backup-Plan hinzugefügt werden können, ohne die Software neu konfigurieren zu müssen. Das ist nicht selbstverständlich, wenn man bedenkt, dass es darum geht, agentenloses Backup von virtuellen Maschinen mit agentenbasiertem Backup physischer Maschinen zu kombinieren. Spätestens beim Konfigurieren der Deduplizierungs-Mechanismen stoßen die traditionellen Backup-Strategien an ihre Grenzen.
Wie sieht aus Recovery-Aspekten ein möglichst perfekter Mix aus, um größere Datenmengen wieder herzustellen?
Milos: Rein aus der Perspektive von Größen der Datenmengen betrachtet, gibt es den perfekten Mix nicht. Ein Fernsehsender, der traditionell sehr große Datenmengen produziert, die zugleich auch geschäftskritisch sind, muss seine Backup-Strategie anders aufsetzen als zum Beispiel ein Großhandelsunternehmen, die immer mehr Daten strukturiert in applikationseigenen Datenbanken sammeln und verwalten. Prinzipiell kann man dennoch sagen, je größer die Datenmenge ist, umso wichtiger wird eine Priorisierung sein, die der Administrator zusammen mit der Unternehmensleitung vornehmen muss, welche Daten sofort wiederherstellbar sein müssen und in welchen Abstufungen die weiteren Datenbestände folgen. Der perfekte Mix liefert das bestmögliche Erreichen der in der Backup-Strategie definierten Disaster-Recovery-Ziele (RTO, RPO) unter Berücksichtigung der zur Verfügung stehenden IT-Personalkapazitäten und natürlich des IT-Budgets.
Die Cloud wird – vor allem von Cloud-Anbietern – als neue Auslagerungsalternative für Backup-Daten, Archivierung und Replikation propagiert. Wie sehen Sie diesen Ansatz? Ist das die Zukunft? Auch für große Enterprise-Organisationen mit richtig großen Datenbeständen?
Milos: Stimmt, Cloud wird als die »eierlegende Wollmilchsau« propagiert, nach der wir alle streben. Als Disaster-Recovery-Spezialisten sehen wir bei Paragon Cloud-Storage als sinnvolle Ergänzung der im Markt verfügbaren Archivierungsmöglichkeiten für Daten. Erstellte Backups, die für eine schnelle Wiederherstellung kompletter Systeme dienen sollen, sollten höchstens als Kopie in die Cloud gebracht werden, um die Datensicherheit zu erhöhen (Off-Site Backup). Replikationen virtueller Maschinen werden erstellt, um beim Ausfall der originären VM schnell deren Produktivaufgaben zu übernehmen (Failover). Dazu eignet sich die Cloud unserer Meinung nach im Moment nicht. Auch die cloudbasierten Backup-as-a-Service-Angebote sollten diesbezüglich näher betrachtet werden, für welche Daten sie sinnvoll sind und für welche nicht.
- Paragon Software
- Knaller von Paragon: kostenlose »Protect & Restore Free« für Vmware vSphere verfügbar
- Paragon aktualisiert »Protect & Restore« mit neuer Version 3.5
- »Paragon NTFS« unterstützt Mac-Version »OS X 10.10 Yosemite«
- Mehr über Backup & Recovery im speicherguide.de-Special 01-2015: Einkaufsführer Backup
- Mehr Interviews rund um Backup&Recovery im speicherguide.de-Schwerpunkt