28.11.2014 (Doc Storage)
4.2 von 5, (5 Bewertungen)

Welche Vorteile bringt Openstack im Storage-Umfeld?

Leserfrage: Open Source und insbesondere »OpenStack« werden derzeit als nutzbringend für Speicherumgebungen angepriesen, aber was bringen sie wirklich. Wie viele Vorteile lassen sich vor allem für Cloud-Architekturen und Objekt-basierten Speicher erreichen?

Antwort Doc Storage:

Openstack beschäftigt sich vor allem mit der Rechner- und Speichervirtualisierung im Software-Defined-Umfeld, also unter anderem SDS. In diesen Bereichen wird deutlich, was das Ziel zukünftiger IT-Architekturen ist, nämlich die Einsatzfähigkeit aller denkbaren Anwendungen unabhängig von physikalischen Gegebenheiten in allen Bereichen des Rechenzentrums und weit darüber hinaus. Vom Weg dorthin haben allerdings alle Beteiligten in diesem Bereich eine eigene Auffassung: ob es nun die Open-Source-Gemeinde mit Openstack (mit tatkräftiger Unterstützung unter anderem von IBM), EMC mit VIPR oder andere sind, die Idee ist allerdings grundsätzlich dieselbe.

»Software Defined« ist nichts anderes als die Verbreitung der Virtualisierungsidee über Rechner und Speichersysteme hinaus. Alle bislang physikalischen Dienste, also beispielsweise Sicherheitssysteme oder Netzwerk, sollen in möglichst plattformunabhängige Software umgewandelt werden. Dies wird auf längere Sicht die Infrastruktur, also Rechner-, Netzwerk- und Speichertechnik, zu Startplattformen für Software Defined-Dienste machen, womit der operative Betrieb vollständig vom Betrieb der Systeme abgekoppelt wäre. Diese Entwicklung wird den Gedanken der Fachabteilung, die Bildung von Dienstgruppen wie Backup, Netzwerk oder Speicherbetrieb im Rechenzentrum obsolet machen und für völlig neue, an den geschäftlichen Prozessen orientierte Arbeitsweisen sorgen. Darüber hinaus ermöglicht erst diese Trennung die vollständige Automatisierung aller Systeme.

Durch die Unabhängigkeit der Anwendungen von der zugrundeliegenden Hardware können neue Anwendungen, neue Prozesse oder ganze Prozessketten wesentlich schneller und effizienter eingeführt werden. Diese Einführung lässt sich sogar soweit automatisieren, dass Selbstbedienungsportale die Installation und spätere Nutzung von Diensten bereitstellen. Dies erhöht nicht nur die Agilität einer Organisation, sondern fördert auch die Zufriedenheit der Nutzer durch Beteiligung am Erstellungsprozess. Das gesamte Unternehmen kann schneller auf interne oder noch wichtiger auf Marktanforderungen reagieren und hat damit ganz neue Möglichkeiten der Kunden- und Umsatzakquise. Neben diesen neuen Quellen bietet Software-Defined auch wesentlich bessere Übersichten über die Nutzung und die Effizienz der Systeme. Die Kosten werden transparent, die zukünftigen Bedarfe wesentlich besser planbar.

Durch Software-Defined-Infrastrukturen können die von virtuellen Serverumgebungen oder Speichervirtualisierung her bekannten Effekte auf das gesamte Rechenzentrum ausgedehnt werden. Selbst der Beschaffung neuer Hardware, die sich auch in Zukunft niemand wird ersparen können, wird der Schrecken durch wesentlich preiswertere Systeme genommen. Und ein »Vendor Lock-In«, also die Beschränkung auf nur einen Hersteller, wird dadurch ebenso vermieden, wodurch sich bessere Preise von den Anbietern aushandeln lassen.

Alle bisher in Anwendungssilos verkapselten Kombinationen aus Rechner, Speicher, Netzwerk und anderen Komponenten werden durch »Software Defined« aufgebrochen und in Pools für eben diese Infrastrukturdienste überführt. Kein Rechner, kein Array und kein Router ist mehr nur für eine Anwendung zuständig. Alle Ressourcen innerhalb der Hardware lassen sich jeglichem Prozess zur Verfügung stellen, wenn ein solcher mehr Leistung oder zusätzliche Funktionalitäten benötigt. Damit können nun alle Komponenten, nicht nur Rechner und Speicher, wesentlich effizienter und damit kostensparender eingesetzt werden.

Migrationen wird durch Software-Defined weitestgehend der Schrecken genommen. Da in einer solchen Umgebung alle Dienste auf jeglicher Hardware laufen, hin- und hergeschoben, gestartet und gestoppt werden können, stellt der Anwender einfach bei Bedarf neue oder zusätzliche Hardware auf und verteilt die Anwendungen auf diese zusätzlichen Systeme. Abschaltungen wegen Systemumzügen gehören damit in die graue Vorzeit. Der Wegfall dieser Herausforderungen reduziert auch das zum Betrieb benötigte Personal. Die entlasteten Mitarbeiter erhalten dadurch Zeit und Muße für die wesentlichen Aufgaben der DV, nämlich den Entwurf und die Einführung gewinnbringender neuer Anwendungen.

Leider ist Software-Defined wie hier beschrieben noch weitestgehend eine Utopie. Allerdings beschäftigen sich alle großen Anbieter mit einem deutlichen Teil ihrer Entwicklungsmannschaften mit Volldampf mit der Implementierung der ersten Komponenten. Und rennen damit bei den Anwendern prinzipiell offene Türen ein. Zwei Drittel bis vier Fünftel aller Open-Systems-Rechner in den IT-Abteilungen sind zwischenzeitlich virtualisiert, bei Speichersystemen im Enterprise-Bereich annähernd 100 Prozent. Nun gilt es, das bewährte Prinzip auf alle anderen Infrastrukturteile des Rechenzentrums anzuwenden. Zumindest sollte sich jeder mit der Anschaffung neuer Systeme befasste Verantwortliche bei jeder Komponente fragen, ob diese denn in Zukunft in ein Software-Defined-Konzept passen könnte.

Gruß
Doc Storage

Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de
Kommentare (2)
28.11.2014 - kfr

"Vendor Login" - Arrgh... ;)
Thanks!!!

28.11.2014 - LHL

Wow, was für ein Werbetext für "Software Defined" ...
Abgesehen mal davon, das ich eher einen "Vendor Lock-In" verhindern möchte als einen "Vendor Login" ;) wird man sehen müssen, ob sich diese Utopie tatsächlich einmal verwirklichen lässt. Meiner Meinung nach hängt das stark von der Leistungsfähigkeit der Infrastruktur ab. Wenn Standardsysteme generell so leistungsfähig sind, das man damit alle Infrastrukturanforderungen locker bedienen kann wäre es möglich. Im Moment sieht es nicht in jedem Fall so aus: "Software siliconized" ist ein klarer Gegentrend. Man darf dabei auch die Betriebskosten und Sicherheitsanforderungen nicht aus den Augen verlieren. Aktuelle Netzwerke haben nicht von ungefähr komplexe Strukturen bestehend aus vielen vLANs, Portfiltern, Firewallregeln. Aus meiner Erfahrung liegen hier die Showstopper.
OpenStack könnte aber ein guter Ansatz sein, einem Vendor Lock-In bei der RZ-Automation entgegen zu wirken. Heute sieht es ja häufig so aus, das ich zwar Hardware von beliebigen Herstellern einsetzen kann, aber dafür ein Wechsel in der Virtualisierung - egal ob Server oder Storage - nicht mal so eben einfach möglich ist.


Mehr von Doc. tec. Storage 15.02.2019 Was sagt DWPD über SSDs aus?

Im Zusammenhang mit (Enterprise-)SSDs wird oft die Qualitätsgröße DWPD (Drive Writes Per Day) genutzt. Meist wird die Angabe auch für einen Zeitraum von fünf Jahren spezifiziert. Was sagt DWPD genau aus und mit welcher Standard-Lebensdauer darf man rechnen?


08.02.2019 Unterschiede der Performance-States von SSDs

Gängige Meinung: SSDs sind schnell. In der Praxis gibt es aber dann doch einige Unterschiede, so sind vielen die verschiedenen Performance-States von SSDs und Flash-Speichern nicht bekannt: FOB, steady, burst and transition. Was steckt genau dahinter?


01.02.2019 BSI empfiehlt 200-km-Distanz – 200 km ERNSTHAFT!?

Kurz vor Weihnachten veröffentlichte das BSI neue Kriterien für georedundante RZs. Darin wird der bisher empfohlene Mindestabstand von fünf auf 200 Kilometer hochgesetzt. Aus Praxissicht laut Doc Storage »vollkommener Blödsinn«.


31.01.2019 Nervfaktor digitale Transformation – ein Rant

Die digitale Transformation bzw. Digitalisierung verfolgt uns nun schon geraume Zeit. Mit dem Faktor Mensch kommt nun nochmal ein neues Trendthema hinzu. Doc Storage hat hier eine klare Meinung: »alles Blödsinn – es nervt«. Nichts von dem, was heute diskutiert wird, ist neu und Menschen waren schon immer der Kern eines jeden Geschäftsbetriebs – selbst in der IT.


25.01.2019 SSDs: Was ist mit den Schreibzyklen, wenn SSDs fast voll sind?

Moderne SSDs sorgen mit der Wear-Leveling-Funktion automatisch dafür, dass möglichst gleichmäßig über alle Sektoren geschrieben wird. Wie verhält es sich mit den spezifizierten Schreibzyklen, wenn die SSD nahezu voll ist?


18.01.2019 Wie sinnvoll sind Benchmarks und Performance-Tests?

Welchen Stellenwert haben Benchmarks und Performance-Tests (z.B. SPC-1 und SPC-2) bei der Anschaffung von Storage-Systemen? Man hört ja, dass sich Firmen die Anforderungen nur noch vertraglich garantieren lassen. Ist das wirklich ein gangbarer Weg?

powered by
Boston Server & Storage Solutions Datacore Software
Fujitsu Technology Solutions GmbH Unitrends
N-TEC GmbH FAST LTA AG