11.04.2014 (Doc Storage)
4.1 von 5, (11 Bewertungen)

Seagate Kinetic – was ist davon zu halten?

  • Inhalt dieses Artikels
  • Kinetic könnte den durch Metadaten erzeugten Overhead verringern
  • Kinetic hilft bei den Alpträumen der Cloud-Anbieter

Leserfrage: Ich war letzte Woche in Rust auf den »WorldHostingDays« (WHD.global). An etlichen Ständen war die Storage-Architektur »Kinetic« von Seagate ein Thema, unter anderem bei Rausch Netzwerktechnik. Soweit habe ich verstanden: Die Architektur soll sich besonders für Cloud-Hoster eignen. Was ist das Besondere an Kinetic, bzw. warum brauchen Cloud-Hoster eine andere Storage-Architektur?

Antwort Doc. tec. Storage:

Mit ihrem Kinetic-Modell versucht Seagate – ein traditioneller Hardware-Hersteller – auf den schon mit ziemlicher Geschwindigkeit fahrenden Zug des Software-Defined-Geschäftes aufzuspringen. Das Rückgrat dieses Konzeptes bilden aber weiterhin Speicherplatten, die nun nicht mehr über SAS- oder SATA-Schnittstellen, sondern direkt an eine Ethernet-Verbindung angeschlossen werden.

Ethernet sieht Seagate als einzige Netzverbindung der Zukunft. Die bisher notwendigen langen Wege durch alle Schichten des Client-Server-Modells (Anwendung, Dateisystem, Netzwerk, Speichersystem, Festplatten usw.) will der Hersteller nun durch ein wesentlich einfacheres Konzept ersetzen. Die Rechner sollen direkt über Ethernet auf die einzelnen Platten zugreifen, wobei ein Switch die über Kinetic verwalteten Zugriffe auf die Medien organisiert und verteilt. Damit soll auch die Gefahr wegfallen, daß beispielsweise 1-Gbit/s-Schnittstellen an den Laufwerken ein übergeordnetes 10-Gbit/s-Netzwerk ausbremsen.

Kinetic könnte den durch Metadaten erzeugten Overhead verringern

Durch die Vereinfachung des Datenweges will Seagate auch den durch Metadaten erzeugten Overhead verringern – laut Angaben des Herstellers sind unter zehn Prozent der im Netzwerk bewegten Daten tatsächliche Inhalte. Auch diese Maßnahme würde die Leistung des Gesamtsystems dramatisch erhöhen.

Allerdings ist Kinetic momentan nicht mehr als eine wohlgemeinte Absichtserklärung – wie fast alle anderen Möchtegern-Produkte im SD-Irgendwas-Markt auch. Seagate muß Partner suchen, die an dem eigens entworfenen API andocken, muß Betriebs- und Dateisystemhersteller finden, die sich auf die neue Umgebung einlassen (und damit einen Großteil ihres eigenen Geschäftes einbüßen) – und muss vor allem Kunden davon überzeugen, dass der Verzicht auf steuernde Hardware, also Arrays, tatsächlich einen Gewinn an Geschwindigkeit OHNE Verlust der Ausfallsicherheit bringt. Und das alles dürfte noch einige Quartale dauern, bis sich dieses Produkt in den Rechenzentren finden wird.

Kinetic hilft bei den Alpträumen der Cloud-Anbieter

Für Cloud-Anbieter wäre Kinetic ideal, räumt es doch mit den größten Alpträumen der entsprechenden Kunden auf: Keine Notwendigkeit zur Abstimmung von Netzwerk-, Speichersystem- und HBA-Firmware, keine umständlichen Installations- und Migrationsvorgänge, und vor allem eine denkbar einfache Erweiterung der vorhandenen Kapazitäten durch Platten oder schnellere Medien.

Aber, wie gesagt, all das wird noch einige Zeit auf sich warten lassen, bis das Konzeptstadium verlassen ist und ein ausreichendes Partner-Ecosystem aufgebaut ist. Vielversprechend ist das Konzept auf jeden Fall, arbeitet es doch neben den neuen Festplatten mit Ethernet-Anschluß mit jedem bestehenden Array mit ebensolchen Ports zusammen und zwingt die Betreiber nicht, sofort und zwingend alle Investitionen zu ersetzen.

Gruß
Doc Storage

Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de

Mehr von Doc. tec. Storage 17.05.2019 NAS-Caching oder Tiering für VMs multiple Zugriffe?

In einer Lehrumgebung werden virtuellen Maschinen auf einem NAS mit 10GbE-Anbindung gespeichert. Nachdem eine Erweiterung mit NVMe-Flash ansteht, stellt sich die Frage, ob eine Caching- oder eine Tiering-Konfiguration die sinnvollere Wahl ist?


10.05.2019 Wird Flash nun auch zum Backup-Medium?

Flash wird zunehmend auch für Backup interessant. Der Geschwindigkeitsvorteil soll die Dauer der Sicherung wie auch der Wiederherstellung reduzieren. Macht dies in der Praxis bereits Sinn – auch aus Kostensicht?


03.05.2019 Unterschied zwischen Active/Active und Active/Passive

Beim Thema Hochverfügbarkeit unterscheidet man zwischen Konfigurationen, die Active/Active bzw. Active/Passive agieren. Was ist genau der Unterschied und für welche Szenarien empfehlen sich die beiden Möglichkeiten? Welche Cluster-Architektur bietet hinsichtlich Skalierbarkeit mehr Spielraum für zukünftigen Lastzunahmen?


26.04.2019 Dateisysteme für den PByte-Bereich

Datenberge jenseits des PByte-Bereichs, Cloud-Anbindungen und Analytics-Szenarien stellen Dateiysteme vor neue Herausforderungen. Der Markt bietet einige Optionen wie GPFS, Gluster FS, OneFS oder QF2. Worauf gilt es zu achten? Update zu CephFS und ZFS.


05.04.2019 Neuordnung des Storage-Tiering

Nachdem sich Flash und SSDs mittlerweile auch in mehrere Leistungsklassen unterteilen, steht die Technik nicht mehr nur für Tier 0. 15k-HDDs scheinen vor dem Aus zu stehen. Gilt dies auch für alle SAS-Platten? Wie sieht die Neuordnung des Storage-Tiering aktuell aus?


15.03.2019 30 Jahre World Wide Web: Was gibt es zu feiern?

Das World Wide Web feiert seinen 30. Geburtstag. Ohne dem Internet ist unser heutiges Leben nicht mehr vorstellbar. Für Doc Storage hat das Netz aber auch genug Schattenseiten. An Regulierungen bzw. an das vom Erfinder erhoffte bessere Internet, glaubt er nicht.

powered by
Boston Server & Storage Solutions Datacore Software
Itiso GmbH Seagate Technology
N-TEC GmbH FAST LTA AG
Fujitsu Technology Solutions GmbH Pure Storage