28.11.2014 (Doc Storage)
4.2 von 5, (5 Bewertungen)

Welche Vorteile bringt Openstack im Storage-Umfeld?

Leserfrage: Open Source und insbesondere »OpenStack« werden derzeit als nutzbringend für Speicherumgebungen angepriesen, aber was bringen sie wirklich. Wie viele Vorteile lassen sich vor allem für Cloud-Architekturen und Objekt-basierten Speicher erreichen?

Antwort Doc Storage:

Openstack beschäftigt sich vor allem mit der Rechner- und Speichervirtualisierung im Software-Defined-Umfeld, also unter anderem SDS. In diesen Bereichen wird deutlich, was das Ziel zukünftiger IT-Architekturen ist, nämlich die Einsatzfähigkeit aller denkbaren Anwendungen unabhängig von physikalischen Gegebenheiten in allen Bereichen des Rechenzentrums und weit darüber hinaus. Vom Weg dorthin haben allerdings alle Beteiligten in diesem Bereich eine eigene Auffassung: ob es nun die Open-Source-Gemeinde mit Openstack (mit tatkräftiger Unterstützung unter anderem von IBM), EMC mit VIPR oder andere sind, die Idee ist allerdings grundsätzlich dieselbe.

»Software Defined« ist nichts anderes als die Verbreitung der Virtualisierungsidee über Rechner und Speichersysteme hinaus. Alle bislang physikalischen Dienste, also beispielsweise Sicherheitssysteme oder Netzwerk, sollen in möglichst plattformunabhängige Software umgewandelt werden. Dies wird auf längere Sicht die Infrastruktur, also Rechner-, Netzwerk- und Speichertechnik, zu Startplattformen für Software Defined-Dienste machen, womit der operative Betrieb vollständig vom Betrieb der Systeme abgekoppelt wäre. Diese Entwicklung wird den Gedanken der Fachabteilung, die Bildung von Dienstgruppen wie Backup, Netzwerk oder Speicherbetrieb im Rechenzentrum obsolet machen und für völlig neue, an den geschäftlichen Prozessen orientierte Arbeitsweisen sorgen. Darüber hinaus ermöglicht erst diese Trennung die vollständige Automatisierung aller Systeme.

Durch die Unabhängigkeit der Anwendungen von der zugrundeliegenden Hardware können neue Anwendungen, neue Prozesse oder ganze Prozessketten wesentlich schneller und effizienter eingeführt werden. Diese Einführung lässt sich sogar soweit automatisieren, dass Selbstbedienungsportale die Installation und spätere Nutzung von Diensten bereitstellen. Dies erhöht nicht nur die Agilität einer Organisation, sondern fördert auch die Zufriedenheit der Nutzer durch Beteiligung am Erstellungsprozess. Das gesamte Unternehmen kann schneller auf interne oder noch wichtiger auf Marktanforderungen reagieren und hat damit ganz neue Möglichkeiten der Kunden- und Umsatzakquise. Neben diesen neuen Quellen bietet Software-Defined auch wesentlich bessere Übersichten über die Nutzung und die Effizienz der Systeme. Die Kosten werden transparent, die zukünftigen Bedarfe wesentlich besser planbar.

Durch Software-Defined-Infrastrukturen können die von virtuellen Serverumgebungen oder Speichervirtualisierung her bekannten Effekte auf das gesamte Rechenzentrum ausgedehnt werden. Selbst der Beschaffung neuer Hardware, die sich auch in Zukunft niemand wird ersparen können, wird der Schrecken durch wesentlich preiswertere Systeme genommen. Und ein »Vendor Lock-In«, also die Beschränkung auf nur einen Hersteller, wird dadurch ebenso vermieden, wodurch sich bessere Preise von den Anbietern aushandeln lassen.

Alle bisher in Anwendungssilos verkapselten Kombinationen aus Rechner, Speicher, Netzwerk und anderen Komponenten werden durch »Software Defined« aufgebrochen und in Pools für eben diese Infrastrukturdienste überführt. Kein Rechner, kein Array und kein Router ist mehr nur für eine Anwendung zuständig. Alle Ressourcen innerhalb der Hardware lassen sich jeglichem Prozess zur Verfügung stellen, wenn ein solcher mehr Leistung oder zusätzliche Funktionalitäten benötigt. Damit können nun alle Komponenten, nicht nur Rechner und Speicher, wesentlich effizienter und damit kostensparender eingesetzt werden.

Migrationen wird durch Software-Defined weitestgehend der Schrecken genommen. Da in einer solchen Umgebung alle Dienste auf jeglicher Hardware laufen, hin- und hergeschoben, gestartet und gestoppt werden können, stellt der Anwender einfach bei Bedarf neue oder zusätzliche Hardware auf und verteilt die Anwendungen auf diese zusätzlichen Systeme. Abschaltungen wegen Systemumzügen gehören damit in die graue Vorzeit. Der Wegfall dieser Herausforderungen reduziert auch das zum Betrieb benötigte Personal. Die entlasteten Mitarbeiter erhalten dadurch Zeit und Muße für die wesentlichen Aufgaben der DV, nämlich den Entwurf und die Einführung gewinnbringender neuer Anwendungen.

Leider ist Software-Defined wie hier beschrieben noch weitestgehend eine Utopie. Allerdings beschäftigen sich alle großen Anbieter mit einem deutlichen Teil ihrer Entwicklungsmannschaften mit Volldampf mit der Implementierung der ersten Komponenten. Und rennen damit bei den Anwendern prinzipiell offene Türen ein. Zwei Drittel bis vier Fünftel aller Open-Systems-Rechner in den IT-Abteilungen sind zwischenzeitlich virtualisiert, bei Speichersystemen im Enterprise-Bereich annähernd 100 Prozent. Nun gilt es, das bewährte Prinzip auf alle anderen Infrastrukturteile des Rechenzentrums anzuwenden. Zumindest sollte sich jeder mit der Anschaffung neuer Systeme befasste Verantwortliche bei jeder Komponente fragen, ob diese denn in Zukunft in ein Software-Defined-Konzept passen könnte.

Gruß
Doc Storage

Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de
Kommentare (2)
28.11.2014 - kfr

"Vendor Login" - Arrgh... ;)
Thanks!!!

28.11.2014 - LHL

Wow, was für ein Werbetext für "Software Defined" ...
Abgesehen mal davon, das ich eher einen "Vendor Lock-In" verhindern möchte als einen "Vendor Login" ;) wird man sehen müssen, ob sich diese Utopie tatsächlich einmal verwirklichen lässt. Meiner Meinung nach hängt das stark von der Leistungsfähigkeit der Infrastruktur ab. Wenn Standardsysteme generell so leistungsfähig sind, das man damit alle Infrastrukturanforderungen locker bedienen kann wäre es möglich. Im Moment sieht es nicht in jedem Fall so aus: "Software siliconized" ist ein klarer Gegentrend. Man darf dabei auch die Betriebskosten und Sicherheitsanforderungen nicht aus den Augen verlieren. Aktuelle Netzwerke haben nicht von ungefähr komplexe Strukturen bestehend aus vielen vLANs, Portfiltern, Firewallregeln. Aus meiner Erfahrung liegen hier die Showstopper.
OpenStack könnte aber ein guter Ansatz sein, einem Vendor Lock-In bei der RZ-Automation entgegen zu wirken. Heute sieht es ja häufig so aus, das ich zwar Hardware von beliebigen Herstellern einsetzen kann, aber dafür ein Wechsel in der Virtualisierung - egal ob Server oder Storage - nicht mal so eben einfach möglich ist.


Mehr von Doc. tec. Storage 13.09.2019 Kann man Daten auf Festplatten erneuern?

Mehrere externe Festplatten wurden vor über zehn Jahren beschrieben und stromlos eingelagert. Kann bzw. sollte man die gespeicherten Daten erneuern, beispielsweise in dem die Daten an die gleiche Stelle zurückgeschrieben werden?


06.09.2019 Verschlüsselung von Festplatten in Servern

Warum sollten einzelner Ordner oder ganze Festplatten im Server-Bereich verschlüsselt werden? Ein Server im Betrieb muss die Daten entschlüsseln, weil sonst kein Zugriff möglich wäre. Generiert dies nicht nur Kosten? Welche Bedrohungen sehen sich Server ausgesetzt und welchen Maßnahmen empfehlen sich?


30.08.2019 Stress – die Perspektive aus dem Doppelboden

Stress ist vielen IT-Abteilungen Gang und Gäbe. Zu wenig Personal und zu enge Zeitrahmen, sind IT-Beauftragten nur allzu gut bekannt. Doc Storage antwortet in seiner Kolumne auf unseren Beitrag in der Rubrik Faktor Mensch und schildert zum Thema Stress seine Perspektive aus dem »Doppelboden«.


23.08.2019 Was ist Computational-Storage?

In Verbindung mit einer schnelleren Datenverarbeitung fällt wiederholt der Begriff Computational-Storage. Angeblich soll es sich um eine spannende Zukunftstechnologien handeln, wie sehen Sie das und welchen Stand hat die Technik bisher?


02.08.2019 Soft-/Hardware: Wie Daten richtig verschlüsseln?

Eine Software-Verschlüsselung soll weniger Probleme verursachen, als eine Hardware-Verschlüsselung. Stimmt das? Was passiert, wenn der gewählte Verschlüsselungsanbieter nicht mehr verfügbar ist, wie kommt man dann an seine Daten?


12.07.2019 Analysten-Prognosen sind verschwendete Lebenszeit

Diesmal nimmt sich Doc Storage die Trendvorhersagen von Marktforschern vor. Seiner Ansicht nach ist vieles nur ein Blick in die Glaskugel, anderes dagegen so offensichtlich, dass es keine weitere Betrachtung benötige. Er hält diese Art von Info für verschwendete Lebenszeit.

powered by
Boston Server & Storage Solutions Itiso GmbH
Fujitsu Technology Solutions GmbH Infortrend
N-TEC GmbH FAST LTA AG
Datacore Software Seagate Technology
Folgen Sie speicherguide.de auch auf unseren Social-Media-Kanälen
Folgen Sie und auf Facebook Folgen Sie und auf YouTube Folgen Sie und auf Twitter