28.11.2014 (Doc Storage)
4.2 von 5, (5 Bewertungen)

Welche Vorteile bringt Openstack im Storage-Umfeld?

Leserfrage: Open Source und insbesondere »OpenStack« werden derzeit als nutzbringend für Speicherumgebungen angepriesen, aber was bringen sie wirklich. Wie viele Vorteile lassen sich vor allem für Cloud-Architekturen und Objekt-basierten Speicher erreichen?

Antwort Doc Storage:

Openstack beschäftigt sich vor allem mit der Rechner- und Speichervirtualisierung im Software-Defined-Umfeld, also unter anderem SDS. In diesen Bereichen wird deutlich, was das Ziel zukünftiger IT-Architekturen ist, nämlich die Einsatzfähigkeit aller denkbaren Anwendungen unabhängig von physikalischen Gegebenheiten in allen Bereichen des Rechenzentrums und weit darüber hinaus. Vom Weg dorthin haben allerdings alle Beteiligten in diesem Bereich eine eigene Auffassung: ob es nun die Open-Source-Gemeinde mit Openstack (mit tatkräftiger Unterstützung unter anderem von IBM), EMC mit VIPR oder andere sind, die Idee ist allerdings grundsätzlich dieselbe.

»Software Defined« ist nichts anderes als die Verbreitung der Virtualisierungsidee über Rechner und Speichersysteme hinaus. Alle bislang physikalischen Dienste, also beispielsweise Sicherheitssysteme oder Netzwerk, sollen in möglichst plattformunabhängige Software umgewandelt werden. Dies wird auf längere Sicht die Infrastruktur, also Rechner-, Netzwerk- und Speichertechnik, zu Startplattformen für Software Defined-Dienste machen, womit der operative Betrieb vollständig vom Betrieb der Systeme abgekoppelt wäre. Diese Entwicklung wird den Gedanken der Fachabteilung, die Bildung von Dienstgruppen wie Backup, Netzwerk oder Speicherbetrieb im Rechenzentrum obsolet machen und für völlig neue, an den geschäftlichen Prozessen orientierte Arbeitsweisen sorgen. Darüber hinaus ermöglicht erst diese Trennung die vollständige Automatisierung aller Systeme.

Durch die Unabhängigkeit der Anwendungen von der zugrundeliegenden Hardware können neue Anwendungen, neue Prozesse oder ganze Prozessketten wesentlich schneller und effizienter eingeführt werden. Diese Einführung lässt sich sogar soweit automatisieren, dass Selbstbedienungsportale die Installation und spätere Nutzung von Diensten bereitstellen. Dies erhöht nicht nur die Agilität einer Organisation, sondern fördert auch die Zufriedenheit der Nutzer durch Beteiligung am Erstellungsprozess. Das gesamte Unternehmen kann schneller auf interne oder noch wichtiger auf Marktanforderungen reagieren und hat damit ganz neue Möglichkeiten der Kunden- und Umsatzakquise. Neben diesen neuen Quellen bietet Software-Defined auch wesentlich bessere Übersichten über die Nutzung und die Effizienz der Systeme. Die Kosten werden transparent, die zukünftigen Bedarfe wesentlich besser planbar.

Durch Software-Defined-Infrastrukturen können die von virtuellen Serverumgebungen oder Speichervirtualisierung her bekannten Effekte auf das gesamte Rechenzentrum ausgedehnt werden. Selbst der Beschaffung neuer Hardware, die sich auch in Zukunft niemand wird ersparen können, wird der Schrecken durch wesentlich preiswertere Systeme genommen. Und ein »Vendor Lock-In«, also die Beschränkung auf nur einen Hersteller, wird dadurch ebenso vermieden, wodurch sich bessere Preise von den Anbietern aushandeln lassen.

Alle bisher in Anwendungssilos verkapselten Kombinationen aus Rechner, Speicher, Netzwerk und anderen Komponenten werden durch »Software Defined« aufgebrochen und in Pools für eben diese Infrastrukturdienste überführt. Kein Rechner, kein Array und kein Router ist mehr nur für eine Anwendung zuständig. Alle Ressourcen innerhalb der Hardware lassen sich jeglichem Prozess zur Verfügung stellen, wenn ein solcher mehr Leistung oder zusätzliche Funktionalitäten benötigt. Damit können nun alle Komponenten, nicht nur Rechner und Speicher, wesentlich effizienter und damit kostensparender eingesetzt werden.

Migrationen wird durch Software-Defined weitestgehend der Schrecken genommen. Da in einer solchen Umgebung alle Dienste auf jeglicher Hardware laufen, hin- und hergeschoben, gestartet und gestoppt werden können, stellt der Anwender einfach bei Bedarf neue oder zusätzliche Hardware auf und verteilt die Anwendungen auf diese zusätzlichen Systeme. Abschaltungen wegen Systemumzügen gehören damit in die graue Vorzeit. Der Wegfall dieser Herausforderungen reduziert auch das zum Betrieb benötigte Personal. Die entlasteten Mitarbeiter erhalten dadurch Zeit und Muße für die wesentlichen Aufgaben der DV, nämlich den Entwurf und die Einführung gewinnbringender neuer Anwendungen.

Leider ist Software-Defined wie hier beschrieben noch weitestgehend eine Utopie. Allerdings beschäftigen sich alle großen Anbieter mit einem deutlichen Teil ihrer Entwicklungsmannschaften mit Volldampf mit der Implementierung der ersten Komponenten. Und rennen damit bei den Anwendern prinzipiell offene Türen ein. Zwei Drittel bis vier Fünftel aller Open-Systems-Rechner in den IT-Abteilungen sind zwischenzeitlich virtualisiert, bei Speichersystemen im Enterprise-Bereich annähernd 100 Prozent. Nun gilt es, das bewährte Prinzip auf alle anderen Infrastrukturteile des Rechenzentrums anzuwenden. Zumindest sollte sich jeder mit der Anschaffung neuer Systeme befasste Verantwortliche bei jeder Komponente fragen, ob diese denn in Zukunft in ein Software-Defined-Konzept passen könnte.

Gruß
Doc Storage

Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de
Kommentare (2)
28.11.2014 - kfr

"Vendor Login" - Arrgh... ;)
Thanks!!!

28.11.2014 - LHL

Wow, was für ein Werbetext für "Software Defined" ...
Abgesehen mal davon, das ich eher einen "Vendor Lock-In" verhindern möchte als einen "Vendor Login" ;) wird man sehen müssen, ob sich diese Utopie tatsächlich einmal verwirklichen lässt. Meiner Meinung nach hängt das stark von der Leistungsfähigkeit der Infrastruktur ab. Wenn Standardsysteme generell so leistungsfähig sind, das man damit alle Infrastrukturanforderungen locker bedienen kann wäre es möglich. Im Moment sieht es nicht in jedem Fall so aus: "Software siliconized" ist ein klarer Gegentrend. Man darf dabei auch die Betriebskosten und Sicherheitsanforderungen nicht aus den Augen verlieren. Aktuelle Netzwerke haben nicht von ungefähr komplexe Strukturen bestehend aus vielen vLANs, Portfiltern, Firewallregeln. Aus meiner Erfahrung liegen hier die Showstopper.
OpenStack könnte aber ein guter Ansatz sein, einem Vendor Lock-In bei der RZ-Automation entgegen zu wirken. Heute sieht es ja häufig so aus, das ich zwar Hardware von beliebigen Herstellern einsetzen kann, aber dafür ein Wechsel in der Virtualisierung - egal ob Server oder Storage - nicht mal so eben einfach möglich ist.


Mehr von Doc. tec. Storage 14.06.2019 Ein Jahr DSGVO: Aufwand unerträglich hoch

Kolumne: Zur Einführung der DSGVO hat Doc Storage mächtig Dampf abgelassen. Ein Jahr später lässt kaum ein Verband ein gutes Haar an der Datenschutz-Grundverordnung. Der Aufwand für Firmen und IT-Abteilungen sei unerträglich hoch.


07.06.2019 Welchen Flash für welche Anwendung?

Vor rund sechs Jahren schickten sich Flash-Speicher an, sich in Computern und Storage-Systemen zu etablieren. Damals galten die Lösungen aber noch als proprietär. Wo steht die Technik heute und welcher Flash eignet sich für welchen Einsatzzweck?


17.05.2019 NAS-Caching oder Tiering für VMs multiple Zugriffe?

In einer Lehrumgebung werden virtuellen Maschinen auf einem NAS mit 10GbE-Anbindung gespeichert. Nachdem eine Erweiterung mit NVMe-Flash ansteht, stellt sich die Frage, ob eine Caching- oder eine Tiering-Konfiguration die sinnvollere Wahl ist?


10.05.2019 Wird Flash nun auch zum Backup-Medium?

Flash wird zunehmend auch für Backup interessant. Der Geschwindigkeitsvorteil soll die Dauer der Sicherung wie auch der Wiederherstellung reduzieren. Macht dies in der Praxis bereits Sinn – auch aus Kostensicht?


03.05.2019 Unterschied zwischen Active/Active und Active/Passive

Beim Thema Hochverfügbarkeit unterscheidet man zwischen Konfigurationen, die Active/Active bzw. Active/Passive agieren. Was ist genau der Unterschied und für welche Szenarien empfehlen sich die beiden Möglichkeiten? Welche Cluster-Architektur bietet hinsichtlich Skalierbarkeit mehr Spielraum für zukünftigen Lastzunahmen?


26.04.2019 Dateisysteme für den PByte-Bereich

Datenberge jenseits des PByte-Bereichs, Cloud-Anbindungen und Analytics-Szenarien stellen Dateiysteme vor neue Herausforderungen. Der Markt bietet einige Optionen wie GPFS, Gluster FS, OneFS oder QF2. Worauf gilt es zu achten? Update zu CephFS und ZFS.

powered by
Boston Server & Storage Solutions Datacore Software
Itiso GmbH Seagate Technology
N-TEC GmbH FAST LTA AG
Fujitsu Technology Solutions GmbH Pure Storage