05.11.2015 (eh)
2.8 von 5, (6 Bewertungen)

»Hyper-Converged Systeme für das Rechenzentrum der Zukunft«

Mit dem »EVO SDDC« drängt Vmware nun stark in Richtung Hyper-Converged Systeme. Über die Positionierung dieser neuartigen Systeme, und warum sie wohl demnächst die Architektur- bzw. Infrastruktur-Entscheidungen in Rechenzentren beeinflussen, sprach speicherguide.de mit Martin Niemer, Director SDDC, Networking & Security CEMEA bei Vmware.

  Herr Niemer, können Sie die Unterschiede zwischen »EVO:RAIL« und »EVO SDDC« erläutern? Was sind die wichtigsten Punkte für einen potenziellen Administrator, der sich dafür interessiert?

Martin Niemer, Director SDDC, Networking & Security CEMEA, VmwareMartin Niemer, Director SDDC, Networking & Security CEMEA, VmwareNiemer: »EVO:RAIL« ist zunächst einmal eine Box, welche physikalisch aus vier Servern besteht. In diese Box ist Storage integriert, bestehend aus Platten und Flash. Und all das lässt sich als eine Instanz verwalten – mit dem VMware Hypervisor und der vSAN-Storage-Virtualisierung als eine integrierte Instanz. Die Lösung ist mittlerweile bereits seit einem Jahr auf dem Markt und lässt sich über führende OEMs beziehen.
EVO SDDC ist im Prinzip Evo:Rail eine Nummer größer. Angekündigt haben wir die Lösung bereits letztes Jahr auf der VMworld – damals allerdings noch unter dem Namen »EVO: RACK«, was im Prinzip einen Schritt weiter geht: Denn dabei ist nicht mehr nur von einer Maschine die Rede, sondern von einem ganzen Rack. Dieses besteht aus Servern und Storage und ist somit ein kompletter Building-Block, welcher sich wiederum aus einem Top-of-Rack-Switch mit zehn oder fünfzehn Servern und einem direkt adressierbaren Storage zusammensetzt. Und all das kann komplett gemanagt werden. Denn im Vergleich zu Evo:Rail, ist EVO SDDC nicht nur mit der vSAN-Storage-Plattform, sondern auch mit der Netzwerk-Management-Plattform NSX bzw. dem »EVO SDDC Manager« ausgestattet. Dieser verwaltet die physikalische Hardware im Rack.
Darüber hinaus können so gut wie alle Hardware-Hersteller ihre Komponenten mit Vmware integrieren – dank einer speziellen Application-Programming-Interface (API). Diese API wird es zukünftig wohl auch als Open-Source geben.
Alles in allem können wir unseren OEMs so ein rundes Paket zur Verfügung stellen. Denn die OEMs können die Lösungen von uns beziehen, mit ihrer eigenen Hardware erweitern und bündeln, und anschließend als komplette Lösung verkaufen.

  Welche Art von Administratoren oder welche Art von Rechenzentrumsbetreiber sprechen Sie damit an? Was soll der ersetzen, oder dazubauen?

Niemer: Das sind typischerweise zwei Ansätze. Zum einen haben wir viele Nutzer mit Legacy-Applikationen, die sich um die Instandhaltung dieser Applikationen keine Gedanken mehr machen möchten und es sozusagen zu einem »Einfrieren« kommen lassen, so dass die Applikationen nach und nach »sterben«. Zum anderen bauen Anwender beim Greenfield-Ansatz neue Applikationen einfach oben drauf und beginnen, aus dem alten Rechenzentrum Applikationen zu verschieben.
Zum anderen gibt es einige Nutzer, die gerade bei neuen Projekten von der Business-Seite getrieben werden, dafür ist die Plattform ideal. Wenn es dort heißt, man braucht neue Applikationen und dafür auch neue Infrastruktur – aber man will sich mit der Infrastruktur nicht wirklich beschäftigen –, dann kann ein ganzes EVO-SDDC-Rack die Lösung sein. Damit ist der Nutzer relativ schnell betriebsbereit und kann sofort anfangen, seine Applikationen darauf zu betreiben.

Philosophiefrage: Wen spricht man an? Den Server-, Storage- oder Netzwerk-Administrator?

  In einem solchen Hyper-Converged System ist alles drin: Server, Storage, Netzwerk, Management. Wen sprechen Sie hauptsächlich in größeren Unternehmen an? Denn es gibt dort ja Server-, Storage- und Netzwerk-Administratoren. Von der Philosophie her abgesehen kann so ein Hyper-Converged System ja vielleicht den ein oder anderen Kollegen arbeitslos machen….

Niemer: Das ist eigentlich ein Trend, den wir generell im Markt sehen. Denn genau diese Fragen stellen sich viele IT-Leiter: Wer wird in Zukunft das Team sein, welches die Cloud-Infrastrukturen betreibt? Wer kümmert sich um die Public-Clouds? Ist es der Server-, der Storage- oder der Netzwerk-Verantwortliche? Da gibt es also eine ganze Reihe von Leuten, die sich am Kopf kratzen und fragen: Wie muss die Organisationsstruktur für die Zukunft aussehen? Wir bei Vmware haben deshalb die »Operation Transformation Services« ins Leben gerufen. Das ist ein Team, das unsere Kunden berät, wie sie Organisationsstrukturen und Prozesse umbauen können. Typischerweise sehen wir im Augenblick eher die Serverteams, die das betreiben, da diese die höchste Affinität haben. Aber letztendlich sind solche Entscheidungen meistens die von Rechenzentrumsleitern, bzw. die von IT-Architekten in größeren Unternehmen. Denn diese Architekten beraten darüber, wie das Rechenzentrum in den nächsten fünf bis zehn Jahren aussehen soll. Und viele wollen mittlerweile einen Software-definierten Ansatz.

  Das heißt, zurzeit stehen in Rechenzentren bedeutende Infrastruktur-Entscheidungen an?

Niemer: Es werden heute tatsächlich andere Entscheidungen über eine Infrastruktur getroffen als früher: Früher wurde beispielsweise ein Server gekauft und später bei Bedarf erweitert. Heute sehen diese Entscheidungen ganz anders aus und betreffen nicht nur den Server, sondern die gesamte Architektur und Infrastruktur – haben damit also eine längerfristige Auswirkung. Hyper-Converged Systeme sind daher auf jeden Fall Lösungen für das Rechenzentrum der Zukunft.

  Und was ist mit den Anwendern, die sich alles selbst zusammengebaut haben?

Niemer: Natürlich gab und gibt es Anwender, die nach dem Best-of-Breed-Ansatz verfahren: Diese kaufen sich zum Beispiel den besten Switch, den besten Storage und den besten Server und legen darüber eine Virtualisierungsschicht. Anschließend wird mit einem Hypervisor und einem Managementtool alles zusammengebaut. Bis heute wird dieses Verfahren sehr häufig angewendet, ist allerdings auch sehr aufwendig. Anwender, die das Ziel haben, Projekte schnell und effizient umzusetzen, sollten daher überlegen, ob ein Hyper-Converged System nicht doch der bessere Ansatz ist.

Und was sagt der CIO zu Hyper-Converged Systemen?

  Könnte es etwas bringen, mit der Philosophie eines Hyper-Converged Systems evtl. direkt an den CIO ranzugehen? Oder die Geschäftsführung?

Niemer: Zwischen Serveradministrator und CIO liegen ja typischerweise noch ein paar Hierarchieebenen. Und gerade in großen Unternehmen sind die Hierarchien zwischen Serveradministrator und CIO sehr groß. Die meisten Diskussionen, die wir im Augenblick führen, sind daher mit dem Rechenzentrumsleiter, der so eine Infrastruktur letztendlich verantworten muss.

  Also ist der CIO dann gar nicht mal interessant für Sie?

Niemer: Nein, der Rechenzentrumsleiter ist jemand, der ein Rechenzentrum verantwortet. Ein CIO hat die Gesamtverantwortung zu tragen, beispielsweise beim Roll-out eines SAP-Systems. Rechenzentrumsleiter haben die Verantwortung, eine Infrastruktur am Laufen zu halten. Es hängt immer von der Größe der Unternehmen ab. Aber EVO SDDC ist sicherlich ein Top-Down-Ansatz. Das heißt, dieser ist vor allem für größere Unternehmen interessant. In Unternehmen gibt es Technologien, die sozusagen von unten nach oben wachsen, und es gibt andere, die kommen von oben nach unten. Ich denke, EVO SDDC wird sicher eine Technologie sein, die sich von oben nach unten durchsetzt. Die ersten Einsätze werden nicht bei KMUs sein, sondern bei Großunternehmen.

  Und hier letztendlich die, die an die Cloud denken, oder?

Niemer: Ja, aber nur, wenn Sie an die Cloud als Skalierungsmöglichkeit denken. Es geht dabei um Unternehmen, die diese einfache Skalierungsmöglichkeit tatsächlich brauchen, da sie heute schon 1.000, 5.000 oder gar 10.000 Server im Einsatz haben. Unternehmen, die nur zwei oder drei Server einsetzen, sind nicht die primäre Zielgruppe von EVO SDDC. Denn bei EVO SDDC reden wir wirklich über komplette Racks, und mit so einem Rack können 1.000 oder 2.000 VMs gleichzeitig betrieben werden. Das sind schon große Skalierungen, die hier erreicht werden können.

Warum immer mehr Fachbereiche nach neuer IT-Infrastruktur lechzen

  Müssen Sie neben Administratoren, CIOs und Rechenzentrumsleitern nicht mittlerweile auch mit Abteilungsleitern von Fachbereichen reden. Die haben doch oftmals ganz eigene, spezifische Anforderungen….

Niemer: Das stimmt, wir reden derzeit immer mehr mit Leuten, die aus verschiedenen Geschäftsbereichen kommen. Das sind beispielsweise Abteilungsleiter, die für Produktentwicklung zuständig sind, die auf den ersten Blick aber eigentlich mit IT nichts zu tun haben. Aber wir sind auch mit Nutzern im Gespräch. Denn gerade wenn es um Themen wie das Internet-of-Things (IoT) geht, sind solche Nutzer für uns sehr interessant.

  Haben Sie dafür ein Beispiel?

Niemer: Stellen Sie sich beispielsweise ein deutsches Industrieunternehmen vor, wie einen Druckmaschinenhersteller. Dieser kommt auf die Idee, seine Maschinen mit Fernwartung, also mit neuen Kommunikationsfähigkeiten, ausrüsten zu wollen. Aber die Ingenieure, die diese Druckmaschinen bauen, haben nur wenig Know-how in Sachen IT. Also holen sie sich von der IT-Abteilung Rat und klären mit dieser Fragen zur Serverinfrastruktur, zur Software und zu den nötigen Datenbanken. An diesem Beispiel sieht man sehr gut, dass derzeit eine große Transformation in Unternehmen geschieht.

  Um bei diesem Bespiel zu bleiben: Dann wird doch die IT-Abteilung nicht unbedingt zum IT-Einkäufer, sondern eher zum Berater, zum Consultant für andere Fachabteilungen?

Niemer: Genau. Teilweise ist es auch so, dass die Fachabteilungen in solchen Fällen Budget für die Entwicklung eines Produkts und der dazugehörigen IT-Infrastruktur vergeben. In anderen Fällen muss die IT eine Infrastruktur zur Verfügung stellen. Gerade in solchen Fällen ist ein Hyper-Converged System sicher eine sehr gute Lösung, da dieses schnell und einfach zu implementieren ist. Das ist der große Vorteil der Hyperkonvergenz.

.