08.04.2016 (Doc Storage)
3.8 von 5, (10 Bewertungen)

Sind Storage-Funktionen nicht mittlerweile bei allen gleich?

Antwort Doc Storage:

Auch auf die Gefahr hin, es mir jetzt mit allen »Software-defined Storage«-Herstellern zu verderben: Mitnichten war, ist oder wird der Hersteller eines Speichersystems nebensächlich sein. Natürlich betrachten all diejenigen, die mit der Woge der immer mehr wachsenden Datenflut an die Front gespült wurden und den Bedarf nach immer mehr Speicher mit trivialen Systemen mit möglichst funktionsreichen Betriebssystemen zu befriedigen versuchen, die spezialisierten Arrays als »Dinosaurier«, die bald aussterben werden (wie übrigens die richtige EDV auch, die stirbt ja schon seit zwanzig Jahren). Natürlich kann man jede Standard-Hardware mit einem einigermaßen brauchbaren Controller, ein paar Festplatten und ein wenig Hauptspeicher als Cache mit einem entsprechenden Microcode zu einem Speichersystem-Darsteller hochjazzen. Ebenso natürlich wird diese Standard-Hardware im Zeitalter von 3-GHz-Prozessoren, was-weiß-ich-wieviel GByte an Hauptspeicher, PCI-Flash und 10-Gigabit-Netzen auch brauchbare Leistungswerte bringen.

Und jetzt kommen die »aber‘s«: Unternehmensspeicher wie von EMC, Hitachi oder IBM sind nicht ohne Grund völlig anders aufgebaut als solche Standard-Hardware. Der Cache hat über Jahre, wenn nicht Jahrzehnte gewachsene Algorithmen, deren Prefetching-Leistungen durch nichts erreicht werden können, was mal eben in einen Controller eines Kleinrechners hineingeschossen wurde. Hier sind nicht zwei oder vier, sondern 32 oder mehr Kanäle zu den Platten bei der Arbeit, jeder einzelne mit der Leistung eines Cache-Controllers in der trivialen Welt. Alle Komponenten sind mehrfach redundant aufgebaut, selbst der Ausfall mehrerer Prozessoren, Cache-Boards oder Netzwerkadapter kann dem Gesamtsystem und damit dem Datenbestand nichts anhaben.

Die Systeme lassen sich über alle denkbaren Arten anschließen, sei es nun Fibre-Channel, Ficon, SAS oder Ethernet. Aber das Beste: Diese Systeme sind darauf ausgelegt, einmal eingeschaltet zu werden und immer im Betrieb zu bleiben, und anders als Open-Systems oder anderweitig basierte Arrays laufen sie sogar bei und nach Betriebssystem-Updates weiter, ohne dass der Benutzer oder die dort laufenden Anwendungen irgendetwas davon mitbekommen.

Ich weiß genau, was jetzt kommt. Zu groß, zu unflexibel, und vor allem, zu teuer. Erstens gibt es bei den heutigen Datenmengen »zu groß« gar nicht mehr, zweitens sind alle flexiblen Lösungen beliebig komplex und damit ebenso beliebig fehleranfällig, und drittens kommt es nicht darauf an, was ein Gerät in der Anschaffung kostet. Sondern wie teuer es wird, wenn nach dem Ausfall des Speichers die Daten nicht zur Verfügung stehen, im schlimmsten Falle für Stunden oder sogar Tage. Es gibt nicht einen DV-Leiter, der sich für seine großartigen Einsparungen im Speicherbereich hat feiern lassen, und dann sein Waterloo mit ungeeigneten Systemen erlebte.

Mein Ausbilder hat immer gesagt: Für jede Arbeit das richtige Werkzeug. Und Software allein ist hierfür kein Werkzeug, höchstens eine täuschend preiswerte Versuchung.

Gruß
Doc Storage

Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de
Kommentare (3)
11.04.2016 - mress

Ja - es kommt wirklich drauf an :-) SDS ist schön und gut, aber ich kenne nur sehr wenige Hersteller die es wirklich geschafft haben SDS effektiv zu implementieren - incl. effektivem Erasure Coding. Von echter Trennung zwischen Control- und Datapath mal ganz abgesehen was nach Gartner die Voraussetzung für SDS ist. Es kommt aber auch auf die Anwendung an - wo ein Exchange schon Backup, DR, Snapshots etc. mitbringt brauche ich kein komplexes Storagearray wo ich diese Funktionen mitbezahle. Umgekehrt: Ein SAP HANA System mal eben mit SDS zu betreiben (z.B. ScaleIO) bedeutet umfangreiche Änderungen in den Compute Layern und bei der TCO Betrachtung fällt das ganze meistens in sich zusammen. Konsolidierte Storagearrays sind aber - neben SDS - auch die Zukunft - wo Object + NAS + SAN in einem Array stattfinden. Spätestens dort sind die Unterschiede nicht mehr so direkt zu sehen. Was aber SDS anbelangt so halte ich es mit Steve McDonald (SNIA/Netapp) der anlässlich der Openstack Konferenz in Torronto letztes Jahr meinte: "Storage is not (!) Easy".

08.04.2016 - Marcus

Um den geschätzten Herrn Doktor selbst zu zitieren:
"Das kommt drauf an".

Ich kenne sehr wohl Einsatzszenarien, in denen ein GUTES "Software defined Storage" welches auf einer redundanten und ausreichend performanten Hardware läuft und die aufgeführten Nachteile bspw. durch synchrone Spiegelung zweier Storage Systeme ausgleicht, besser passt als ein "traditionelles" Storage.

Ich denke hier speziell an kleine, aber wegen der Hochverfügbarkeit auf zwei Rechnerräume verteilte "VSphere Essentials+" oder Hyper-V Umgebungen mit bis zu 4 Hypervisoren.
Hier ist ein echtes "Enterprise Storage", zudem wenn man zwei davon spiegeln muss, häufig eine Nummer zu groß.

08.04.2016 - bernd.schaub

Wäre nicht ein klares "Nein" als Antwort besser gewesen. Jeder dieser Anbieter hat seine Berechtigung von groß bis klein und alle brauchen Software egal in welcher Funktion. Sie gehen zwar auf Schnittstellen ein, lassen aber grundlegende Dinge mehr oder weniger komplett weg. Beispiel: DAS, SAN und NAS oder auch Objektspeicher und Dateispeicher, neben Themen wie Snapshot und Migrationsmöglichkeiten für die Zukunft der vorhandenen Daten und den dazu gehörigen Aufwand. Darin unterscheiden sich Speichersysteme enorm voneinander.


Mehr von Doc. tec. Storage 13.09.2019 Kann man Daten auf Festplatten erneuern?

Mehrere externe Festplatten wurden vor über zehn Jahren beschrieben und stromlos eingelagert. Kann bzw. sollte man die gespeicherten Daten erneuern, beispielsweise in dem die Daten an die gleiche Stelle zurückgeschrieben werden?


06.09.2019 Verschlüsselung von Festplatten in Servern

Warum sollten einzelner Ordner oder ganze Festplatten im Server-Bereich verschlüsselt werden? Ein Server im Betrieb muss die Daten entschlüsseln, weil sonst kein Zugriff möglich wäre. Generiert dies nicht nur Kosten? Welche Bedrohungen sehen sich Server ausgesetzt und welchen Maßnahmen empfehlen sich?


30.08.2019 Stress – die Perspektive aus dem Doppelboden

Stress ist vielen IT-Abteilungen Gang und Gäbe. Zu wenig Personal und zu enge Zeitrahmen, sind IT-Beauftragten nur allzu gut bekannt. Doc Storage antwortet in seiner Kolumne auf unseren Beitrag in der Rubrik Faktor Mensch und schildert zum Thema Stress seine Perspektive aus dem »Doppelboden«.


23.08.2019 Was ist Computational-Storage?

In Verbindung mit einer schnelleren Datenverarbeitung fällt wiederholt der Begriff Computational-Storage. Angeblich soll es sich um eine spannende Zukunftstechnologien handeln, wie sehen Sie das und welchen Stand hat die Technik bisher?


02.08.2019 Soft-/Hardware: Wie Daten richtig verschlüsseln?

Eine Software-Verschlüsselung soll weniger Probleme verursachen, als eine Hardware-Verschlüsselung. Stimmt das? Was passiert, wenn der gewählte Verschlüsselungsanbieter nicht mehr verfügbar ist, wie kommt man dann an seine Daten?


12.07.2019 Analysten-Prognosen sind verschwendete Lebenszeit

Diesmal nimmt sich Doc Storage die Trendvorhersagen von Marktforschern vor. Seiner Ansicht nach ist vieles nur ein Blick in die Glaskugel, anderes dagegen so offensichtlich, dass es keine weitere Betrachtung benötige. Er hält diese Art von Info für verschwendete Lebenszeit.

powered by
Boston Server & Storage Solutions Itiso GmbH
Fujitsu Technology Solutions GmbH Infortrend
N-TEC GmbH FAST LTA AG
Datacore Software Seagate Technology
Folgen Sie speicherguide.de auch auf unseren Social-Media-Kanälen
Folgen Sie und auf Facebook Folgen Sie und auf YouTube Folgen Sie und auf Twitter