Was ist Lossless-Ethernet?

Lossless-Ethernet hat etwas mit verlustloser Datenübertragung zu tun und wird unter anderem in Fibre Channel over Ethernet (FCoE) eingesetzt. Aber, was ist Lossless-Ethernet genau, was sollte man dazu wissen?

Leserfrage: Zuletzt tauchte wieder vermehrt der Begriff Lossless-Ethernet auf. Soweit ich verstehe, hat es etwas mit verlustloser Datenübertragung zu tun und wird unter anderem in Fibre Channel over Ethernet (FCoE) eingesetzt. Aber, was ist Lossless-Ethernet genau, was sollte man dazu wissen?

Anzeige

Antwort Doc Storage:

DocStorage2014 thumb Der jüngste technische Liebling im Bereich der »Unifying-« oder »(Hyper)Konvergenz«-Protokollen ist das Data Center Bridging (DCB) oder »lossless ethernet«. Es soll wieder einmal alles vereinfachen, so wie es schon FDDI oder ATM sollten. Es soll genau wie diese billiger in der Implementierung sein, sich schneller und einfacher in Unternehmens-Netzwerke einbinden lassen und (wieder einmal) ein Medium sein, auf dem sich (irgendwann einmal) alle lokalen und Speichernetzwerke vereinen werden. Wie immer ist dies ein netter (Marketing-)Gedanke. Jedes Rechenzentrum hofft auf eine solche Lösung, technische und organisatorische Unterschiede aufzuheben und so Zeit und Geld für andere, wesentlich kreativere Arbeiten freizumachen. Aber natürlich gibt es auch heute schon Vorteile, beispielsweise die Konsolidierung von I/Os in Servern.

FCoE sorgt in seinem FC-Anteil durch Buffer-Credits auf Transportschicht 2 dafür, dass sehr große Distanzen verlustfrei überbrückt werden. Dies kann herkömmliches Ethernet nicht garantieren, und somit für den Absturz bestimmter Anwendungen sorgen. Durch die Nutzung des Ethernet-»Pause«-Kommandos lässt sich der Datenstrom kurzfristig anhalten und wieder aufnehmen. Im Gegensatz dazu muss die Versendung eines verlorenen Paketes über TCP/IP über Acknowledges geschehen.

Wie immer liegt der Teufel im Detail. Die älteren Protokolle, die DCB zusammenfassen und ersetzen soll, sind über Jahre, manchmal Jahrzehnte entwickelt worden und »gereift«. Sie enthalten heute Funktionen, die genau auf den Bereich ihrer Verwendung zugeschnitten wurden. Zum Beispiel der Flußkontrollmechnismus im FC-Protokoll, der die Zuverlässigkeit und Leistung in missionskritischen, Echtzeit-Unternehmensumgebungen mit deren Business Continuity- und Disaster-Recovery-Umgebungen sicherstellt. Hierfür werden »Buffer Credits« genutzt, die BC und DR für Anwendungen über große Distanzen und entsprechende DWDM-Verbindungen unterstützen. Große Unternehmen nutzen vor allem Fibre-Channel über DWDM, um die niedrigsten Latenzen und den höchsten Datendurchsatz zu erzielen, beispielsweise zur synchronen Replikation von Speichern, die kritische Daten enthalten.

Die Hersteller von Ethernet-Switches müssen die Anzahl ihrer Buffer auf 10-Gbit-Strecken dramatisch erhöhen. Ansonsten werden wir hier auf FcOE/DCB kaum die Leistungen sehen, die natives Fibre-Channel über DWDM erreicht, weder im Durchsatz noch in der Reichweite.

Hinzu kommt, dass die Priority Flow Control (PFC) von Lossless-Ethernet das exakte Gegenteil der Buffer-to-Buffer-Credits von Fibre-Channel darstellen. Wenn die empfangende Seite keine Buffer mehr frei hat, sendet sie eine entsprechende Nachricht an die Gegenseite, um den Datenfluss zu unterbrechen. Was geschieht dann mit den Daten, die sich bereits auf der Leitung befinden? Ein Paketverlust ist in SANs normalerweise nicht hinnehmbar. In der FC-Welt verlangsamen nicht mehr vorhandene Buffer lediglich den Datenfluss, der Sender wird nicht einfach ausgeschaltet.

Als Alternative lässt sich der FC-Datenstrom vom konvergierten DCB/FCoE-Strom entkoppeln und für den Transport in FCIP-Pakete hüllen. Auf diese Technik verlassen sich Anwender bereits, wenn es Daten über größere Distanzen (mehr als 150 km) zu transportieren gilt. Warum also sollte man sich noch die Kosten und die Verzögerung durch Konvertierung im FCoE/DCB-Umfeld antun?

Auf jeden Fall wird es Fibre-Channel noch eine ganze Zeit lang geben. Firmen verlassen sich immer häufiger auf FC für SAN-Umgebungen, die Installationszahlen nehmen immer noch zu. Die Gründe hierfür sind nicht ausschließlich technischer Natur. LAN und SAN gehören in größeren Umgebungen zu unterschiedlichen Abteilungen und somit in die Verantwortung zweier Manager. Wird der SAN-Manager einem neuen, noch nicht bewährten Protokoll trauen und dies auch noch in die Hände einer anderen Mannschaft geben?

Rechenzentren werden auf Jahre hinaus Umgebungen mit unterschiedlichen Protokollen bleiben. RZ-Leiter, die vor allem einfaches Management, Reduzierung des Energieverbrauches und I/O-Konsolidierung auf ihrer Agenda haben, werden sich kaum noch eine Umgebung mit völlig neuen Protokollen in ihr Haus holen, nur um bewährte Lösungen zu ersetzen. WDM homogenisiert native Protokolle auf der physikalischen Schicht, und eine gute Installation bietet horrende Bandbreiten, sehr niedrige Latenzen, modulare Sicherheit und andere Vorzüge, die diese Manager für ihre neuesten Anwendungen benötigen.

Gruß
Doc Storage

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.