08.04.2016 (Doc Storage)
3.8 von 5, (10 Bewertungen)

Sind Storage-Funktionen nicht mittlerweile bei allen gleich?

Antwort Doc Storage:

Auch auf die Gefahr hin, es mir jetzt mit allen »Software-defined Storage«-Herstellern zu verderben: Mitnichten war, ist oder wird der Hersteller eines Speichersystems nebensächlich sein. Natürlich betrachten all diejenigen, die mit der Woge der immer mehr wachsenden Datenflut an die Front gespült wurden und den Bedarf nach immer mehr Speicher mit trivialen Systemen mit möglichst funktionsreichen Betriebssystemen zu befriedigen versuchen, die spezialisierten Arrays als »Dinosaurier«, die bald aussterben werden (wie übrigens die richtige EDV auch, die stirbt ja schon seit zwanzig Jahren). Natürlich kann man jede Standard-Hardware mit einem einigermaßen brauchbaren Controller, ein paar Festplatten und ein wenig Hauptspeicher als Cache mit einem entsprechenden Microcode zu einem Speichersystem-Darsteller hochjazzen. Ebenso natürlich wird diese Standard-Hardware im Zeitalter von 3-GHz-Prozessoren, was-weiß-ich-wieviel GByte an Hauptspeicher, PCI-Flash und 10-Gigabit-Netzen auch brauchbare Leistungswerte bringen.

Anzeige
Und jetzt kommen die »aber‘s«: Unternehmensspeicher wie von EMC, Hitachi oder IBM sind nicht ohne Grund völlig anders aufgebaut als solche Standard-Hardware. Der Cache hat über Jahre, wenn nicht Jahrzehnte gewachsene Algorithmen, deren Prefetching-Leistungen durch nichts erreicht werden können, was mal eben in einen Controller eines Kleinrechners hineingeschossen wurde. Hier sind nicht zwei oder vier, sondern 32 oder mehr Kanäle zu den Platten bei der Arbeit, jeder einzelne mit der Leistung eines Cache-Controllers in der trivialen Welt. Alle Komponenten sind mehrfach redundant aufgebaut, selbst der Ausfall mehrerer Prozessoren, Cache-Boards oder Netzwerkadapter kann dem Gesamtsystem und damit dem Datenbestand nichts anhaben.

Die Systeme lassen sich über alle denkbaren Arten anschließen, sei es nun Fibre-Channel, Ficon, SAS oder Ethernet. Aber das Beste: Diese Systeme sind darauf ausgelegt, einmal eingeschaltet zu werden und immer im Betrieb zu bleiben, und anders als Open-Systems oder anderweitig basierte Arrays laufen sie sogar bei und nach Betriebssystem-Updates weiter, ohne dass der Benutzer oder die dort laufenden Anwendungen irgendetwas davon mitbekommen.

Ich weiß genau, was jetzt kommt. Zu groß, zu unflexibel, und vor allem, zu teuer. Erstens gibt es bei den heutigen Datenmengen »zu groß« gar nicht mehr, zweitens sind alle flexiblen Lösungen beliebig komplex und damit ebenso beliebig fehleranfällig, und drittens kommt es nicht darauf an, was ein Gerät in der Anschaffung kostet. Sondern wie teuer es wird, wenn nach dem Ausfall des Speichers die Daten nicht zur Verfügung stehen, im schlimmsten Falle für Stunden oder sogar Tage. Es gibt nicht einen DV-Leiter, der sich für seine großartigen Einsparungen im Speicherbereich hat feiern lassen, und dann sein Waterloo mit ungeeigneten Systemen erlebte.

Mein Ausbilder hat immer gesagt: Für jede Arbeit das richtige Werkzeug. Und Software allein ist hierfür kein Werkzeug, höchstens eine täuschend preiswerte Versuchung.

Gruß
Doc Storage

Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de
Kommentare (3)
11.04.2016 - mress

Ja - es kommt wirklich drauf an :-) SDS ist schön und gut, aber ich kenne nur sehr wenige Hersteller die es wirklich geschafft haben SDS effektiv zu implementieren - incl. effektivem Erasure Coding. Von echter Trennung zwischen Control- und Datapath mal ganz abgesehen was nach Gartner die Voraussetzung für SDS ist. Es kommt aber auch auf die Anwendung an - wo ein Exchange schon Backup, DR, Snapshots etc. mitbringt brauche ich kein komplexes Storagearray wo ich diese Funktionen mitbezahle. Umgekehrt: Ein SAP HANA System mal eben mit SDS zu betreiben (z.B. ScaleIO) bedeutet umfangreiche Änderungen in den Compute Layern und bei der TCO Betrachtung fällt das ganze meistens in sich zusammen. Konsolidierte Storagearrays sind aber - neben SDS - auch die Zukunft - wo Object + NAS + SAN in einem Array stattfinden. Spätestens dort sind die Unterschiede nicht mehr so direkt zu sehen. Was aber SDS anbelangt so halte ich es mit Steve McDonald (SNIA/Netapp) der anlässlich der Openstack Konferenz in Torronto letztes Jahr meinte: "Storage is not (!) Easy".

08.04.2016 - Marcus

Um den geschätzten Herrn Doktor selbst zu zitieren:
"Das kommt drauf an".

Ich kenne sehr wohl Einsatzszenarien, in denen ein GUTES "Software defined Storage" welches auf einer redundanten und ausreichend performanten Hardware läuft und die aufgeführten Nachteile bspw. durch synchrone Spiegelung zweier Storage Systeme ausgleicht, besser passt als ein "traditionelles" Storage.

Ich denke hier speziell an kleine, aber wegen der Hochverfügbarkeit auf zwei Rechnerräume verteilte "VSphere Essentials+" oder Hyper-V Umgebungen mit bis zu 4 Hypervisoren.
Hier ist ein echtes "Enterprise Storage", zudem wenn man zwei davon spiegeln muss, häufig eine Nummer zu groß.

08.04.2016 - bernd.schaub

Wäre nicht ein klares "Nein" als Antwort besser gewesen. Jeder dieser Anbieter hat seine Berechtigung von groß bis klein und alle brauchen Software egal in welcher Funktion. Sie gehen zwar auf Schnittstellen ein, lassen aber grundlegende Dinge mehr oder weniger komplett weg. Beispiel: DAS, SAN und NAS oder auch Objektspeicher und Dateispeicher, neben Themen wie Snapshot und Migrationsmöglichkeiten für die Zukunft der vorhandenen Daten und den dazu gehörigen Aufwand. Darin unterscheiden sich Speichersysteme enorm voneinander.


Mehr von Doc. tec. Storage 12.07.2019 Analysten-Prognosen sind verschwendete Lebenszeit

Diesmal nimmt sich Doc Storage die Trendvorhersagen von Marktforschern vor. Seiner Ansicht nach ist vieles nur ein Blick in die Glaskugel, anderes dagegen so offensichtlich, dass es keine weitere Betrachtung benötige. Er hält diese Art von Info für verschwendete Lebenszeit.


28.06.2019 DSGVO bleibt aus DV-Sicht ein unsägliches Thema

Kolumne: Unser Doc Storage ist kein Freund der DSGVO. Dies hat er in mehreren Kolumnen klar formuliert. In seinem zweiten Teil zu »Ein Jahr DSGVO« fasst er nochmal zusammen, warum die Thematik aus seiner DV-Sicht für Firmen unsäglich ist.


14.06.2019 Ein Jahr DSGVO: Aufwand unerträglich hoch

Kolumne: Zur Einführung der DSGVO hat Doc Storage mächtig Dampf abgelassen. Ein Jahr später lässt kaum ein Verband ein gutes Haar an der Datenschutz-Grundverordnung. Der Aufwand für Firmen und IT-Abteilungen sei unerträglich hoch.


07.06.2019 Welchen Flash für welche Anwendung?

Vor rund sechs Jahren schickten sich Flash-Speicher an, sich in Computern und Storage-Systemen zu etablieren. Damals galten die Lösungen aber noch als proprietär. Wo steht die Technik heute und welcher Flash eignet sich für welchen Einsatzzweck?


17.05.2019 NAS-Caching oder Tiering für VMs multiple Zugriffe?

In einer Lehrumgebung werden virtuellen Maschinen auf einem NAS mit 10GbE-Anbindung gespeichert. Nachdem eine Erweiterung mit NVMe-Flash ansteht, stellt sich die Frage, ob eine Caching- oder eine Tiering-Konfiguration die sinnvollere Wahl ist?


10.05.2019 Wird Flash nun auch zum Backup-Medium?

Flash wird zunehmend auch für Backup interessant. Der Geschwindigkeitsvorteil soll die Dauer der Sicherung wie auch der Wiederherstellung reduzieren. Macht dies in der Praxis bereits Sinn – auch aus Kostensicht?

powered by
Boston Server & Storage Solutions Datacore Software
Itiso GmbH Seagate Technology
N-TEC GmbH FAST LTA AG
Fujitsu Technology Solutions GmbH Infortrend