07.11.2018 (kfr)
3.7 von 5, (7 Bewertungen)

Storage-Infrastruktur für Rechenzentren wichtiger denn je

Durch digitale Services und Geschäftsmodelle wird das Datenvolumen in den kommenden drei Jahren etwa um den Faktor 10 steigen. Unternehmen benötigen dafür die richtige Storage-Infrastruktur. Wir sprachen hierzu mit Frank Reichart, Senior Director Global Product Marketing Storage bei Fujitsu sowie über die Vor-/Nachteile von Hyperkonvergenz und Software-defined Storage.

  Digitalisierung ist nach wie vor das Hype-Thema, aber welcher Unterbau ist dafür nötig? Wie sehen moderne (hybride) Storage-Infrastrukturen aus?

Frank Reichart, FujitsuFrank Reichart, FujitsuReichart: Die Digitalisierung hat massive Auswirkungen auf die Speicher-Infrastruktur. Alleine deshalb, weil durch digitale Services und Geschäftsmodelle das Datenvolumen in den kommenden drei Jahren etwa um den Faktor 10 steigen wird. Daher ist ein solider und leistungsstarker »Storage-Unterbau« für Rechenzentren wichtiger denn je.

Welche Technologien dabei zum Zuge kommen, hängt von den Anforderungen eines Unternehmens ab. Sind eine hohe Performance und große Zuverlässigkeit gefragt, kommen All-Flash-Storage-Systeme in Betracht. Sie zeichnen sich durch niedrigere Latenzzeiten, einen geringeren Platzbedarf und einen um den Faktor 10 niedrigeren Stromverbrauch als herkömmliche Festplatten aus. Zudem sinkt der Preis SSDs kontinuierlich und wird in absehbarer Zeit das Niveau von Festplatten erreichen.

Auch unter dem Aspekt Administrationsaufwand bieten All-Flash-Systeme Vorteile. Denn bei ihnen entfallen Tätigkeiten wie eine Optimierung der Leistungsparameter oder der regelmäßige Austausch von Platten. Nach unseren Erfahrungswerten liegen bei einem All-Flash-System die Wartungskosten um bis zu 80 Prozent niedriger, der Administrationsaufwand fällt um 30 bis 40 Prozent geringer aus.

  Wie sieht es bei einem Hybrid-Ansatz aus?

Reichart: Ein Hybrid-Storage-Ansatz empfiehlt sich, wenn Daten für leistungshungrige Anwendungen, unstrukturierte Daten aber auch Online-Archive parallel auf einem Storage-System gespeichert werden sollen. Er kombiniert SSDs und herkömmliche Festplatten mit großer Kapazität in einem System. In diesem Fall landen Daten für anspruchsvolle Anwendungen wie Virtualisierung, Datenbank und Online Transaction Processing ebenso auf dem Speichersystem wie Archivdaten und unstrukturierte Informationsbestände – nur auf unterschiedlichen Speichermedien.

Für viele Unternehmen und Anwendungsfälle sind Hybrid-Systeme wegen der guten Balance zwischen Performance, Kapazität und Kosten eine gute Wahl. Allerdings fällt der Managementaufwand bei Hybrid-Systemen höher aus als bei All-Flash-Komponenten. Daher sollten Nutzer darauf achten, dass für ein Hybrid-Storage-System leistungsfähige Tools für die Automatisierung von Verwaltungsaufgaben zur Verfügung stehen. Mit ihnen lassen sich beispielsweise die Zuweisung von Antwortzeiten und der Netzwerkbandbreite sowie das Storage-Tiering steuern und automatisieren.

Was spricht für Software-defined Storage?

  Welche Vorteile sehen Sie bei Software-defined Storage (SDS)?

Frank Reichart, FujitsuFrank Reichart, FujitsuReichart: Eine hohe Skalierbarkeit bis in den EByte-Bereich hinein, geringe Kosten und ein langer Lebenszyklus zählen zu den Vorzügen. Eine SDS-Infrastruktur umfasst x86-Server, ein Netzwerk, das die Server (Knoten) verbindet sowie eine Storage-Software. Damit lässt sich eine robuste und sicher verteilte Storage-Infrastruktur einrichten. Sie eignet sich vor allem für 2nd-Tier-Storage-Umgebungen, in denen vorzugsweise unstrukturierte Daten abgelegt werden. Der Bestand an solchen Informationen wird in den kommenden Jahren drastisch zunehmen. Man denke nur an IoT-Daten (Internet of Things), also Informationen, die Sensoren und Aktoren in Maschinen, Gebäudetechnik-Systemen und Fahrzeugen bereitstellen.

Positiv auf die Kosten schlägt sich nieder, dass sich eine SDS mithilfe von Standardservern und Open-Source-Software wie Ceph einrichten lässt. Allerdings erfordert der Aufbau eines SDS-Storage-Clusters viel Integrationsarbeit sowie umfangreiche Tests. Auch die Verwaltung der Netzwerkkomponenten sowie die Abstimmung von Software- und Hardware-Updates ist alles andere als trivial. Solche Aufgaben übernehmen bei herkömmlichen Storage-Systemen die Hersteller.

Wer daher eine SDS implementieren möchte, benötigt Fachleute, deren Wissen über das eines typischen Storage-Administrators hinausgeht. Abhilfe können integrierte und vom Hersteller getestete SDS-Komplettpakete schaffen. Diese sind zudem von Anbietern wie Fujitsu inklusive Support- und Wartungsdiensten erhältlich.

Für und Wider von Hyperkonvergenz

  Wie sieht es mit Hyperkonvergenz aus, ist die Technik tatsächlich der Problemlöser in den Rechenzentren? Was spricht für, was dagegen?

Reichart: Heute ist eine hyperkonvergente Infrastruktur (HCI) in Rechenzentren eher selten anzutreffen. Das hat häufig mit der »Normativen Kraft des Faktischen« zu tun: In Rechenzentren sind bereits Server, Storage-Systeme und Netzwerkkomponenten vorhanden. Kein Betreiber eines Rechenzentrums wird diese ohne zwingenden Grund durch eine HCI ersetzen. Allerdings besagen Prognosen, dass in zwei Jahren an die 20 Prozent aller »Workloads« auf hyperkonvergenten Infrastrukturen implementiert werden.

  Was spricht aus Ihrer Sicht für Hyperkonvergenz?

Reichart: Klassische HCI-Lösungen basieren auf Standard-x86-Servern, in Verbindung mit einem Virtualisierungs-Stack. Diese Server können dadurch als Anwendungsplattform und gleichzeitig als Storage-System eingesetzt werden. Das heißt, es sind im Rechenzentrum weniger unterschiedliche Hardware-Komponenten erforderlich, etwa separate Storage-Systeme und Applikationsserver. Das vereinfacht das Management und kann sich zudem positiv auf die Kosten auswirken.

Ein zentraler Vorteil einer HCI ist, dass sie sich wegen ihrer modularen, verteilten Struktur in Verbindung mit Virtualisierung einfacher als eine herkömmliche IT-Umgebung erweitern lässt. Der Austausch der Hardware ist weniger aufwändig und lässt sich schneller bewerkstelligen – ohne aufwändige Migration. Das kommt Unternehmen entgegen, deren IT-Abteilung eh stark ausgelastet ist und die für solche Arbeiten keine kostspieligen, externen IT-Dienstleister beauftragen möchten.

Die gute Skalierbarkeit von HCIs ist für Nutzer wichtig, die mit überschaubarem Aufwand die Storage- und Server-Infrastruktur im Datacenter erweitern möchten. Ein weiterer Pluspunkt von hyperkonvergenten Systemen und Infrastrukturen ist das Management: Server-Administratoren können hier auf ihre Erfahrungen aus dem Bereich Server-Virtualisierung zurückgreifen. Das erspart in etlichen Fällen den Einsatz spezieller Storage-Administratoren.

  Wie sieht es mit potenziellen Schwachpunkten aus?

Reichart: Beispielsweise, wenn eine hohe Skalierbarkeit der Storage-Kapazität, aber eine vergleichsweise geringe Rechenleistung gefordert ist, da bei einer HCI Storage und Rechenleistung Hand in Hand skalieren. Möchte ein Nutzer beispielsweise die Storage-Kapazitäten erweitern, erhält er parallel dazu mehr Rechenleistung, auch wenn er diese gar nicht benötigt.

Ein weiterer Problempunkt sind die Antwortzeiten. Sie können kritische Werte erreichen, weil Anwendungen, Virtualisierungsschicht und Datenverwaltung auf dieselben Server-Ressourcen zurückgreifen. Auch die verteilte Struktur einer HCI kann die Latenzzeiten in die Höhe treiben. Denn Daten müssen über das Netzwerk zwischen den diversen Servern hin und her kopiert werden. Abhilfe schafft nur ein aufwändiges Tuning der Server- und Netzwerkkonfigurationen.

Vor der Implementierung einer Hyperconverged-Infrastructure sollte außerdem bedacht werden, dass dadurch ein weiterer »Storage-Silo« im Rechenzentrum entstehen kann. Dies gilt es zu verhindern. Sonst besteht die Gefahr, dass Administratoren eine weitere Plattform betreuen müssen, inklusive speziellen Tools für deren Bereitstellung und Verwaltung. Hinzukommt die Aufwendungen für die Schulung der IT-Fachleute.