Anzeige

Interview mit Veeam: Klassifizierung von Daten unabdingbar

Virtualisierung, Cloud, Software-defined Storage und Datenexplosion verändern die Rechenzentren. Hinzu kommt, dass der Großteil der Daten neuerdings unstrukturiert vorliegen wird – und somit nicht verwertbar ist. Zeitrahmen und Budget für Datensicherung und Backup laufen völlig aus dem Ruder. Wie die Zeitfenster für Backup-Prozesse weiter zu verkürzen und festgelegte Recovery-Ziele bestmöglich einzuhalten sind, darüber sprach speicherguide.de mit Matthias Frühauf, Sales Engineer Manager, Central EMEA bei Veeam Software.

  Sind angesichts des rasanten Datenwachstums die bekannten Backup-Strategien vergangener Tage passe? Oder genügt es, bekannte Backup-Strategien lediglich anzupassen?

Anzeige

Matthias Frühauf, Sales Engineer Manager, Central EMEA, Veeam SoftwareMatthias Frühauf, Sales Engineer Manager, Central EMEA, Veeam SoftwareFrühauf: Steigende Datenmengen durch IoT, Wearables und Smart-Homes werden für IT-Abteilungen in den nächsten zwölf bis 24 Monaten zu immensen Problemen führen. Denn für Endanwender und Kunden sind Verlässlichkeit und Verfügbarkeit derartiger Dienste unerlässlich. Sie erwarten heute Always-On-Services, also dass Daten und Anwendungen ständig verfügbar sind. Mit bisherigen Backup-Strategien wird die IT dieser Herausforderung jedoch nicht mehr gerecht. Beispielsweise wenn es um die Produktion im Zeitalter von Industrie 4.0 geht, bei der jede Minute zählt, sind RTOs und RPOs von mehreren Stunden oder sogar Tagen nicht mehr akzeptabel. Die Verfügbarkeit wird somit zum strategischen Problem. Von der IT wird künftig erwartet, Recovery-Time-and-Point-Objectives (RTPO) von wenigen Minuten zu gewährleisten.

  Müssen evtl. vollkommen neue Backup-Strategien, -Philosophien, -Strukturen oder gar -Architekturen entwickelt werden?

Frühauf: In vielen Unternehmen ist herkömmlich definierte Hochverfügbarkeit tatsächlich nur wenigen geschäftskritischen Anwendungen und Systemen vorbehalten, weil die dafür nötigen Systeme mit sofortigem Failover extrem teuer sind. Systeme, die dafür nicht in Frage kommen, werden noch häufig mit Legacy-Backup-Lösungen gesichert und stehen deshalb bei einem Ausfall erst nach Stunden oder sogar Tagen wieder zur Verfügung. Das ist zwar für die wenigsten akzeptabel, in sehr vielen Unternehmen aber noch Realität. Virtualisierung bietet aus unserer Sicht die perfekten Voraussetzungen, um extrem kurze RTPO umzusetzen.

  »Extrem kurze RTPO« klingt nach permanenter Systemverfügbarkeit…

Frühauf: Exakt. Um eine permanente Systemverfügbarkeit zu gewährleisten, brauchen Unternehmen aber heute keine teuren Business-Continuity-Lösungen mehr. Moderne Lösungen zur erweiterten Datensicherung und Notfallwiederherstellung können Systeme in virtuellen Umgebungen innerhalb weniger Minuten wieder zum Laufen bringen – selbst nach einem Ausfall der Infrastruktur. Neben einer robusten Plattform für Datensicherung ist außerdem ein Speichersystem mit Hardware-basierten Snapshots für das moderne Rechenzentrum bedeutend. Storage-Snapshots bieten die Option, Backups während der normalen Geschäftszeiten laufen zu lassen, ohne dass der Betrieb virtueller Maschinen beeinträchtigt wird. Von Vorteil sind die sehr kurzen Recovery-Point-Objectives, die geringe Beanspruchung von Speicherplatz aufgrund der minimalen Größe der Snapshots sowie kürzeste Recovery-Time-Objectives im Bedarfsfall. Backups aus Storage-Snapshots können deutlich schneller wiederhergestellt werden. Zudem wird die Auslagerung von Backup-Daten in die Cloud eine wichtige Rolle spielen, da sie einfach zu handhaben und preiswert ist.

  Woran sollten Administratoren in den Unternehmen arbeiten, um ihr Backup für den weiterhin tobenden Daten-Tsunami fit zu halten?

Frühauf: In den letzten Jahren wurde intensiv in die Infrastruktur von Rechenzentren, Virtualisierungstechnologie und Verfügbarkeitslösungen investiert. Zahlreiche Unternehmen glauben, dass das moderne Rechenzentrum hochvirtualisiert sein muss. Manchmal wird aber übersehen, dass Endpunkte im Gegensatz zu Servern physisch bleiben und dennoch genauso hochverfügbar sein müssen. Obwohl der Markt der Endpoint-Security konstant wächst – die jährliche durchschnittliche Wachstumsrate beträgt fünf Prozent bis 2018 –, wird der Sicherung der Hardware, die für Unternehmen überlebenswichtig ist und in den Händen der Endanwendern liegt, wenig Beachtung geschenkt. Die IT muss erkennen, dass nach jahrelangen Investitionen in die Sicherung von Rechenzentren nun der Sicherung von Endpunkten Aufmerksamkeit geschenkt werden muss.

  Disk-Backup-Systeme haben die Sicherung deutlich beschleunigt, trotzdem wird immer noch mehr Leistung benötigt. Wie sieht aus Ihrer Sicht ein möglichst performanter Backup-Ansatz aus (Stichwort Caching)?

Frühauf: Um eine optimale Backup Performance zu erreichen, gibt es mehrere und gegebenenfalls kombinierte Ansätze. Zum einen ist es wichtig, die Daten innerhalb des Storage-Netzwerks zu übertragen, um die dort verfügbaren Bandbreiten zu nutzen und die produktiven Netzwerke zu entlasten. Aber auch die Parallelisierung der Backup-Prozesse spielt eine große Rolle. Hier werden Lösungen benötigt, die nach Kundenwunsch und -bedarf skalieren, ohne unverhältnismäßig hohe Zusatzkosten zu verursachen.
Nicht zuletzt spielt auch die Kombination verschiedener Technologien eine Rolle. So können etwa Storage-basierte Snapshots eingesetzt werden, um Systeme schnell und ohne negative Auswirkungen auf die Produktion »einzufrieren«. Im Anschluss kann aus diesen Snapshots ein Backup auf einem separaten Disk-System erstellt werden, um auch bei größeren Ausfällen gewappnet zu sein.

  Woran erkennen Sie, dass sich in den Unternehmen die Datensicherung in einem Wandel befindet?

Frühauf: Gleichgültig, wo die Daten erstellt werden, investieren Unternehmen bereits hohe Summen in Datenspeicheranalyse und -beschaffung. Wir haben jedoch in einer branchenübergreifenden Studie herausgefunden, dass zahlreiche ganzheitliche Legacy-Lösungen für Datensicherung, die aktuell in Unternehmen eingesetzt werden, keine umfassende Datensicherheit garantieren können. Entsprechend gaben 44 Prozent der von uns befragten Unternehmen an, eine komplett neue, umfassende Backup-Lösung einführen zu wollen. Die Ergebnisse zeigen, dass das Thema Datensicherung also bereits auf der Agenda vieler Unternehmen steht und aus unserer Sicht mit den steigenden Anforderungen an ein Always-On-Business im Big-Data-Zeitalter noch zunehmen wird.

  Haben Sie ein besonderes Best-Practise-Beispiel aus dem Backup-Bereich, das Sie beeindruckt hat?

Frühauf: Unser Kunde Vitakraft hatte bis Ende 2011 eine herkömmliche Backup-Lösung im Einsatz, die neben den physischen Servern auch die VMs über das »VMware Consolidated Backup« (VCB) auf eine Tape-Library sicherte. Dieses Verfahren belastete die Vmware-Hosts jedoch bald zu stark. Vitakraft benötigte daher eine neue Backup-Strategie. Erstens mussten die großen Datenmengen der VMs von rund 4,5 TByte täglich mit kurzen RPOs zuverlässig gesichert werden, ohne zweitens im laufenden Geschäft Performance-Probleme durch eine erhöhte Netzwerklast zu verursachen. Drittens sollte die neue Lösung leicht zu administrieren sein, und parallel zur bewährten und wirtschaftlichen Tape-Backup-Lösung für die physischen Server betrieben werden können. Dank der Lösung »Veeam Backup & Replication« können nun umfangreiche Backups in kurzen Zeitfenstern erfolgen. Zudem erlaubt die Möglichkeit zur Sicherung von VMs im laufenden Betrieb bei Vitakraft die zeitliche Trennung von virtuellem Backup und physischem Backup.

  Wie sieht aus Recovery-Aspekten ein möglichst perfekter Mix aus, um größere Datenmengen wiederherzustellen?

Frühauf: In den kommenden ein bis zwei Jahren wird eine Strategie zur Klassifizierung von Daten unabdingbar sein. Die Entscheidung, welche Daten aufbewahrt, welche gelöscht werden und welche Daten sich für Cloud-Storage oder eher für On-Premise eignen, liegt bei den Geschäftsführern. Fest steht allemal, dass das Aufbewahren sämtlicher Daten bei diesem exponentiellen Datenwachstum nicht in Frage kommt. Wir gehen davon aus, dass Unternehmen die Vorteile von Festplattensystemen für die erste Backup-Ebene sehen, weil sie schnell genug für Always-On-Business sind. Die Bandsicherung übernimmt dann die Rolle der Langzeitarchivierung großer Datenmengen.

  Die Cloud wird – vor allem von Cloud-Anbietern – als neue Auslagerungsalternative für Backup-Daten, Archivierung und Replikation propagiert. Wie sehen Sie diesen Ansatz? Ist das die Zukunft? Auch für große Enterprise-Organisationen mit richtig großen Datenbeständen?

Frühauf: Zahlreiche Unternehmen modernisieren ihre Infrastrukturen, denn das moderne Rechenzentrum von heute muss »always on« und »always available« sein. So wurden 2014 weltweit über 140 Milliarden US-Dollar für Rechenzentrumssysteme ausgegeben. Aus unserer Sicht kommen für die Offsite-Kopie zunehmend hybride Cloud-Modelle in Frage, denn die Mischform der Hybrid-Cloud ermöglicht mehr Flexibilität, um auf wechselnde Anforderungen des Business zu reagieren. Die hybride Cloud bietet außerdem individuelle Lösungen für individuelle Anforderungen: Test- und Development-Umgebungen können kostengünstig extern, geschäftskritische Systeme intern betrieben werden. Darüber hinaus können einzelne Services ausgelagert werden (Software-as-a-Service). Für große Unternehmen stehen Hybrid-Clouds oft ohnehin auf der Agenda. Aber auch sie werden nicht umhinkommen, eine Governance für ihre Daten zu entwickeln, die die passende Balance zwischen Speicherpflichten, Wirtschaftlichkeit und Verfügbarkeit herstellt.

.
Anzeige