16.01.2015 (Doc Storage)
3.8 von 5, (4 Bewertungen)

Wie funktioniert EVO Rail?

Leserfrage: Konvergente und hyper-konvergente Systeme stehen hoch im Kurs. Unlängst zog Vmware mit »EVO Rail« in diesem Segment nach. Wie funktioniert die Lösung und hat sie entscheidenden Vorteile gegenüber anderen konvergenten und hyper-konvergenten Systemen?

Antwort Doc Storage:

EVO Rail stellt eigentlich nichts anderes dar als die Kombination bereits größtenteils vorhandener Lösungen wie »vSphere«, »vCenter«, »Virtual SAN« und »Log Insight« unter einer gemeinsamen Produktkennung. Hinzu kommt die sogenannte Engine, mit deren Hilfe sich die bisher manuell durchzuführenden Einzelarbeiten in der Konfektionierung zusammenfasen und größtenteils automatisieren lassen, also Installation, Konfiguration, Verwaltung und das Einspielen von Korrekturpaketen. Über eine ohne große Einarbeitung zu bedienende Oberfläche können nun all diese bisher autarken Prozesse unter einem Dach durchgeführt werden.

EVO Rail ermöglicht in seiner ersten Version die Verwaltung von insgesamt 16 Knoten auf maximal vier Appliances und benötigt dafür nach Herstellerangaben selbst eine Intel-Hardware mit zwei Sechskern-CPUs und 192 GByte Hauptspeicher. Jede Appliance kann rund 100 virtuelle Server bzw. bis zu 250 virtuelle Desktops betreiben, eine EVO-Rail-Umgebung also maximal 1.600 Server oder bis zu 4.000 Desktops. Der angeschlossene Speicher fasst in seiner Mindestkonfiguration über 14 TByte plus 1,6 TByte auf SSDs.

EVO Rail bietet gegenüber der Einzelinstallation der genannten Produkte die Möglichkeit, neu hinzugefügte Elemente automatisch zu erkennen und zur Umgebung hinzuzufügen. Zum Betrieb von EVO Rail bietet Vmware selbst das sogenannte EVO Rack an, mit dem unterschiedliche Konfigurationen des Open-Compute-Projektes unterstützt werden.

Der Vorteil für den Nutzer zeigt sich vor allem dann, wenn er vorher eine entsprechende Vmware-Umgebung mit den genannten Einzelprodukten betrieben und diese etwas umständlich mit der jeweiligen Managementsoftware verwalten musste. Auch erhält er von verschiedenen Partnern Unterstützung bei der Implementierung, beispielsweise durch Dell, Fujitsu und andere. Sollte sich der Kunde allerdings noch nicht für eine hyperkonvergente Umgebung entschieden haben und bisher »lediglich« Vmware betreiben, so bieten andere Hersteller wie Nutanix ebenfalls Lösungen in diesem Bereich an, die teilweise deutliche Preisunterschiede zur Vmware-Lösung zeigen.

Gruß
Doc Storage

Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de

Mehr von Doc. tec. Storage 14.06.2019 Ein Jahr DSGVO: Aufwand unerträglich hoch

Kolumne: Zur Einführung der DSGVO hat Doc Storage mächtig Dampf abgelassen. Ein Jahr später lässt kaum ein Verband ein gutes Haar an der Datenschutz-Grundverordnung. Der Aufwand für Firmen und IT-Abteilungen sei unerträglich hoch.


07.06.2019 Welchen Flash für welche Anwendung?

Vor rund sechs Jahren schickten sich Flash-Speicher an, sich in Computern und Storage-Systemen zu etablieren. Damals galten die Lösungen aber noch als proprietär. Wo steht die Technik heute und welcher Flash eignet sich für welchen Einsatzzweck?


17.05.2019 NAS-Caching oder Tiering für VMs multiple Zugriffe?

In einer Lehrumgebung werden virtuellen Maschinen auf einem NAS mit 10GbE-Anbindung gespeichert. Nachdem eine Erweiterung mit NVMe-Flash ansteht, stellt sich die Frage, ob eine Caching- oder eine Tiering-Konfiguration die sinnvollere Wahl ist?


10.05.2019 Wird Flash nun auch zum Backup-Medium?

Flash wird zunehmend auch für Backup interessant. Der Geschwindigkeitsvorteil soll die Dauer der Sicherung wie auch der Wiederherstellung reduzieren. Macht dies in der Praxis bereits Sinn – auch aus Kostensicht?


03.05.2019 Unterschied zwischen Active/Active und Active/Passive

Beim Thema Hochverfügbarkeit unterscheidet man zwischen Konfigurationen, die Active/Active bzw. Active/Passive agieren. Was ist genau der Unterschied und für welche Szenarien empfehlen sich die beiden Möglichkeiten? Welche Cluster-Architektur bietet hinsichtlich Skalierbarkeit mehr Spielraum für zukünftigen Lastzunahmen?


26.04.2019 Dateisysteme für den PByte-Bereich

Datenberge jenseits des PByte-Bereichs, Cloud-Anbindungen und Analytics-Szenarien stellen Dateiysteme vor neue Herausforderungen. Der Markt bietet einige Optionen wie GPFS, Gluster FS, OneFS oder QF2. Worauf gilt es zu achten? Update zu CephFS und ZFS.

powered by
Boston Server & Storage Solutions Datacore Software
Itiso GmbH Seagate Technology
N-TEC GmbH FAST LTA AG
Fujitsu Technology Solutions GmbH Pure Storage