27.03.2017 (eh)
4.7 von 5, (3 Bewertungen)

Rationales Datenhandling bei Cloud-Strategien geht nur mit Flash

  • Inhalt dieses Artikels
  • Verfügbarkeit von Cloud-Ressourcen wird zum geschäftskritischen Faktor
  • Cloud wird wohl auf jeden Fall zumindest partiell eingebunden
  • Fünf Cloud-typische Anforderungen
  • Datacenter müssen »Cloud-ready« werden

Die Cloud ist auf dem Vormarsch, egal ob Unternehmen auf Ressourcen aus der öffentlichen Cloud zurückgreifen, eine private Cloud betreiben oder sich für das gängige Hybrid-Cloud-Modell entscheiden. Hier sieht Pure Storage immenses Potenzial für die Flash-Speichertechnologie, wenn ein schneller, paralleler Zugriff auf sich häufig ändernde Daten gefragt ist.

Ein Blade des FlashBlade-Systems kommt in der Bauform einer PCIe-Steckkarte (Bild: Pure Storage)Ein Blade des FlashBlade-Systems kommt in der Bauform einer PCIe-Steckkarte (Bild: Pure Storage)Effiziente und leistungsfähige Speicherlösungen sind die Voraussetzung für das optimale Zusammenspiel mit der Cloud und Cloud-ähnliche Anforderungen an die Datenverwaltung für typische Nutzungsszenarien. Der All-Flash-Spezialist Pure Storage ist sich sicher, das Flash-Speichertechnologien hier die Voraussetzung für das optimale Zusammenspiel sein.

Denn jüngste Prognosen der Marktforscher von IDC sehen die Cloud weiterhin im Aufwind: Bis 2018 werden die Hälfte aller IT-Assets, die ein Unternehmen nutzt, extern betrieben werden in Form von Colocation, Hosting und Cloud-Rechenzentren. 40 Prozent des operativen Betriebs der Unternehmens-IT wird in den Händen der Mitarbeiter von externen SaaS-Anbietern und Managed-Service-Providern liegen.

Verfügbarkeit von Cloud-Ressourcen wird zum geschäftskritischen Faktor

Bis Ende 2019 werden im globalen Maßstab die meisten Unternehmen mit einen überwiegend auf Cloud basierenden IT-Umgebungen arbeiten. Und bis 2020 werden die weltweiten Ausgaben für Cloud-Dienste, Hard- und Software zu deren Unterstützung sowie Implementierung und Management auf über 500 Milliarden US-Dollar wachsen. Letzteres entspräche dem Dreifachen von heute, wie das Analystenhaus berichtet.

Keine der neuen Anwendungen wie Big-Data-Analytik, Mobilität, soziale Netzwerke oder das Internet der Dinge (Internet of Things, IoT) wäre ohne die »große« Cloud im Hintergrund oder eine Cloud-ähnliche Inhouse-Infrastruktur realisierbar. Unternehmen, die in den kommenden Jahren derartige Szenarien umsetzen wollen, müssen ihre Cloud-Kapazitäten deutlich erweitern, sei es mittels Public-Cloud-Diensten oder durch den Aufbau Cloud-ähnlicher eigener Ressourcen. Die Verfügbarkeit von Cloud-Ressourcen und »Cloud-Fähigkeit« scheint zum geschäftskritischen Faktor zu werden.

Unternehmen können zwischen verschiedenen Cloud-Modellen wählen, wobei Aspekte wie Kosten, Kontrolle über die Daten, Skalierbarkeit und Agilität entscheidungsrelevant sind. Die drei gängigen grundlegenden Cloud-Modelle sind heute die öffentliche Cloud, die private Cloud und die Hybrid-Cloud. Auch wenn das Vertrauen in die öffentliche Cloud steigt, gibt es bislang kaum Unternehmen, die ihre kompletten IT-Ressourcen aus der Cloud beziehen.

Cloud wird wohl auf jeden Fall zumindest partiell eingebunden

Die private Cloud galt in der von Skepsis geprägten Anfangsphase als einzig akzeptable Antwort auf die erheblichen Sicherheitsbedenken. Die großen internationalen Cloud-Betreiber haben aber reagiert und respektieren mittlerweile die nationalen, strengeren Datenschutzanforderungen. So wurden eigens neue Rechenzentren in der EU in Betrieb genommen. Mittlerweile ist die Cloud-Skepsis gewichen, und das Hybrid-Cloud-Modell setzt sich als goldener Mittelweg durch. Dabei wird im eigenen Rechenzentrum eine Private-Cloud betrieben in Kombination mit den skalierbaren Diensten einer öffentlichen Cloud.

»Der Trend mindestens zur partiellen Einbindung der Cloud erfordert in jedem Fall eine Modernisierung der Datenspeicherung und Datenverwaltung. Cloud-Computing bedeutet nicht nur Datenarchivierung, sondern ‚mit den Daten zu arbeiten’ – und das sehr intensiv sowie mit sehr großen Datenmengen«, erklärt Markus Grau, Principal Systems Engineer bei Pure Storage. »Diese müssen bereitgestellt werden etwa für Tests und Entwicklung (DevOps), sie müssen analysiert werden für Marktforschung und Studien zum Kundenverhalten, sie müssen immer wieder gesichert und im Notfall wiederhergestellt werden.«

Fünf Cloud-typische Anforderungen

Big-Data- und Analytik-Anwendungen: Das Storage-System muss agil sein, also in der Lage sein, viele Daten schnell zu verarbeiten und zu analysieren. Hierfür sind Flash-Arrays prädestiniert.
Automatisiertes Datenmanagement: Das Storage-System muss voll automatisiert und in Orchestrierungs-/Automatisierungslösungen einzubinden sowie einfach zu verwalten sein.
Verfügbarkeit und Performance: Hybrid-Cloud mit Cloud-ähnlicher Verwaltung, aber mit 99,9999 Prozent Verfügbarkeit und konsistent hoher Performance.
Geringer Wartungsaufwand: Das Storage-System muss über den gesamten Lebenszyklus und alle Aspekte hinweg (Installation, Verwaltung, Verfügbarkeit, Upgrade, Technologie-Refresh) ein »Nearly-Zero-Touch«-System sein.
Langfristige Investitionssicherheit: Hier offeriert beispielsweise Pure das »Evergreen Storage«-Beschaffungsmodell. Es bedeutet, dass Kunden ihre Speicherkapazität nur ein einziges Mal kaufen und für ein Jahrzehnt oder mehr betreiben können, ohne Migrationen oder Ausfallzeiten. Pure Storage geht davon aus, dass der diesjährige Übergang zum NVMe-Protokoll vielen Kunden die Augen öffnen wird, die sich an die Rückkauf- und Forklift-Zyklen ihrer etablierten Anbieter gewöhnt haben.

Datacenter müssen »Cloud-ready« werden

Man kann wohl ziemlich sicher davon ausgehen, dass die Cloud ihren Höhenflug in den nächsten Jahren beibehalten wird. Auch wenn das eigene Datacenter nicht zur privaten Cloud werden soll und noch keine Hybrid-Cloud-Strategie verfolgt wird: Unternehmen werden wohl ihr Rechenzentrum »Cloud-ready« machen müssen.

»Es muss künftig Cloud-ähnlichen Anforderungen hinsichtlich Agilität und Performance gerecht werden und das Zusammenspiel mit der öffentlichen Cloud unterstützen. Schneller Datenzugriff ist dabei entscheidend«, argumentiert Markus Grau. »Hier bieten sich All-Flash-Systeme in Storage-Umgebungen als zukunftssichere Basis für das Datenmanagement in der Cloud-Ära an.«

.