08.04.2016 (Doc Storage)
3.8 von 5, (10 Bewertungen)

Sind Storage-Funktionen nicht mittlerweile bei allen gleich?

Antwort Doc Storage:

Auch auf die Gefahr hin, es mir jetzt mit allen »Software-defined Storage«-Herstellern zu verderben: Mitnichten war, ist oder wird der Hersteller eines Speichersystems nebensächlich sein. Natürlich betrachten all diejenigen, die mit der Woge der immer mehr wachsenden Datenflut an die Front gespült wurden und den Bedarf nach immer mehr Speicher mit trivialen Systemen mit möglichst funktionsreichen Betriebssystemen zu befriedigen versuchen, die spezialisierten Arrays als »Dinosaurier«, die bald aussterben werden (wie übrigens die richtige EDV auch, die stirbt ja schon seit zwanzig Jahren). Natürlich kann man jede Standard-Hardware mit einem einigermaßen brauchbaren Controller, ein paar Festplatten und ein wenig Hauptspeicher als Cache mit einem entsprechenden Microcode zu einem Speichersystem-Darsteller hochjazzen. Ebenso natürlich wird diese Standard-Hardware im Zeitalter von 3-GHz-Prozessoren, was-weiß-ich-wieviel GByte an Hauptspeicher, PCI-Flash und 10-Gigabit-Netzen auch brauchbare Leistungswerte bringen.

Und jetzt kommen die »aber‘s«: Unternehmensspeicher wie von EMC, Hitachi oder IBM sind nicht ohne Grund völlig anders aufgebaut als solche Standard-Hardware. Der Cache hat über Jahre, wenn nicht Jahrzehnte gewachsene Algorithmen, deren Prefetching-Leistungen durch nichts erreicht werden können, was mal eben in einen Controller eines Kleinrechners hineingeschossen wurde. Hier sind nicht zwei oder vier, sondern 32 oder mehr Kanäle zu den Platten bei der Arbeit, jeder einzelne mit der Leistung eines Cache-Controllers in der trivialen Welt. Alle Komponenten sind mehrfach redundant aufgebaut, selbst der Ausfall mehrerer Prozessoren, Cache-Boards oder Netzwerkadapter kann dem Gesamtsystem und damit dem Datenbestand nichts anhaben.

Die Systeme lassen sich über alle denkbaren Arten anschließen, sei es nun Fibre-Channel, Ficon, SAS oder Ethernet. Aber das Beste: Diese Systeme sind darauf ausgelegt, einmal eingeschaltet zu werden und immer im Betrieb zu bleiben, und anders als Open-Systems oder anderweitig basierte Arrays laufen sie sogar bei und nach Betriebssystem-Updates weiter, ohne dass der Benutzer oder die dort laufenden Anwendungen irgendetwas davon mitbekommen.

Ich weiß genau, was jetzt kommt. Zu groß, zu unflexibel, und vor allem, zu teuer. Erstens gibt es bei den heutigen Datenmengen »zu groß« gar nicht mehr, zweitens sind alle flexiblen Lösungen beliebig komplex und damit ebenso beliebig fehleranfällig, und drittens kommt es nicht darauf an, was ein Gerät in der Anschaffung kostet. Sondern wie teuer es wird, wenn nach dem Ausfall des Speichers die Daten nicht zur Verfügung stehen, im schlimmsten Falle für Stunden oder sogar Tage. Es gibt nicht einen DV-Leiter, der sich für seine großartigen Einsparungen im Speicherbereich hat feiern lassen, und dann sein Waterloo mit ungeeigneten Systemen erlebte.

Mein Ausbilder hat immer gesagt: Für jede Arbeit das richtige Werkzeug. Und Software allein ist hierfür kein Werkzeug, höchstens eine täuschend preiswerte Versuchung.

Gruß
Doc Storage

Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de
Kommentare (3)
11.04.2016 - mress

Ja - es kommt wirklich drauf an :-) SDS ist schön und gut, aber ich kenne nur sehr wenige Hersteller die es wirklich geschafft haben SDS effektiv zu implementieren - incl. effektivem Erasure Coding. Von echter Trennung zwischen Control- und Datapath mal ganz abgesehen was nach Gartner die Voraussetzung für SDS ist. Es kommt aber auch auf die Anwendung an - wo ein Exchange schon Backup, DR, Snapshots etc. mitbringt brauche ich kein komplexes Storagearray wo ich diese Funktionen mitbezahle. Umgekehrt: Ein SAP HANA System mal eben mit SDS zu betreiben (z.B. ScaleIO) bedeutet umfangreiche Änderungen in den Compute Layern und bei der TCO Betrachtung fällt das ganze meistens in sich zusammen. Konsolidierte Storagearrays sind aber - neben SDS - auch die Zukunft - wo Object + NAS + SAN in einem Array stattfinden. Spätestens dort sind die Unterschiede nicht mehr so direkt zu sehen. Was aber SDS anbelangt so halte ich es mit Steve McDonald (SNIA/Netapp) der anlässlich der Openstack Konferenz in Torronto letztes Jahr meinte: "Storage is not (!) Easy".

08.04.2016 - Marcus

Um den geschätzten Herrn Doktor selbst zu zitieren:
"Das kommt drauf an".

Ich kenne sehr wohl Einsatzszenarien, in denen ein GUTES "Software defined Storage" welches auf einer redundanten und ausreichend performanten Hardware läuft und die aufgeführten Nachteile bspw. durch synchrone Spiegelung zweier Storage Systeme ausgleicht, besser passt als ein "traditionelles" Storage.

Ich denke hier speziell an kleine, aber wegen der Hochverfügbarkeit auf zwei Rechnerräume verteilte "VSphere Essentials+" oder Hyper-V Umgebungen mit bis zu 4 Hypervisoren.
Hier ist ein echtes "Enterprise Storage", zudem wenn man zwei davon spiegeln muss, häufig eine Nummer zu groß.

08.04.2016 - bernd.schaub

Wäre nicht ein klares "Nein" als Antwort besser gewesen. Jeder dieser Anbieter hat seine Berechtigung von groß bis klein und alle brauchen Software egal in welcher Funktion. Sie gehen zwar auf Schnittstellen ein, lassen aber grundlegende Dinge mehr oder weniger komplett weg. Beispiel: DAS, SAN und NAS oder auch Objektspeicher und Dateispeicher, neben Themen wie Snapshot und Migrationsmöglichkeiten für die Zukunft der vorhandenen Daten und den dazu gehörigen Aufwand. Darin unterscheiden sich Speichersysteme enorm voneinander.


Mehr von Doc. tec. Storage 15.05.2020 Doc Storage: »Ich vermisse den Gegenwind«

Doc Storage ist fassungslos, fast sogar ein kleinwenig sprachlos. Na ja, nicht ganz, Sie kennen ihn ja. Nachdem er den Einfluss der Coronakrise auf die IT ausführlich und aus verschiedenen Blickwinkeln beleuchtet hat, inklusiver einiger steiler Thesen, ist es ihm hier eindeutig zu ruhig. Da hatte er sich mehr Gegenwind erwartet. Liebe Leser, unser Doc hat Ihnen etwas zu sagen…


08.05.2020 HPC-Speicher: schnell & sicher schließen sich meist aus

Doc Storage nimmt sich in seiner Kolumne unter anderem die HPC-Studie von Hyperion Research vor. High-Performance-Computing hat aus seiner Sicht klar den Auftrag schnell zu sein. Die von den Marktforschern geforderte Ausfallsicherheit, wäre kein Problem, wenn die Firmen genug Geld ausgeben würden. Ansonsten gehe ein Mehr an Sicherheitsmaßnahmen immer zu Lasten der Leistung.


30.04.2020 Cloud vs. On-Premises: Wichtige Daten nur inhouse speichern

Wer daran denkt, wichtige Daten in die Cloud auszulagern, sollte sich nicht fragen, wie hoch die Einsparungen gegenüber On-Premises ausfallen, sondern was es kosten wird, sollten die Daten kompromittiert werden. Der Cloud-Act ist zwar eine reale Gefahr, letztendlich ist aber jeder halbwegs begabte Hacker eine Bedrohung. Laut Doc Storage kann der Rat daher nur lauten: »Behalten Sie Ihre Daten inhouse mit maximalen Sicherheitsvorkehrungen«.


24.04.2020 Corona/IT Teil 3: Die Zeit nach Corona: Ein Blick in die Zukunft

Wann auch immer die Einschränkungen aufgehoben werden, es wird eine Zeit danach geben. Und darin ist sich Doc Storage sicher, naja, er hofft es, es wird vieles nicht mehr so sein wie vorher. Möglicherweise stellen Firmen fest, dass es mit weniger Hard- und Software genauso gut geht, ohne externe Berater und einem wesentlich geringeren Budget. Und die Ersparnis darin liegt, die IT vor allem intern zu regeln.


03.04.2020 Corona & IT Teil 2: Bedeutet das Virus das Ende der Edel-EDV?

Sed tempora mutantur, et nos mutamur in illis – Die Zeiten ändern sich und wir uns mit ihnen. Die Corona-Pandemie und die damit verbundenen Einschränkungen fördern auch in der IT neue Arbeitsweisen, Sichtweisen und Möglichkeiten hervor. Zu den Erkenntnissen gehört für unseren Doc Storage, es geht auch einfacher. Daher prophezeit er ein Umdenken in den IT-Abteilungen und damit das Ende der Edel-EDV.


27.03.2020 Corona: Deutliche Quittung für Ignoranz und IT-Missmanagement

Die Coronakrise zwingt Unternehmen zum Umdenken: Es zeigt sich, dass viele nicht nur nicht auf mobiles Arbeiten vorbereitet waren, sondern auch Warnungen von Seiten der IT schlicht ignoriert haben. Doc Storage geht mit den Firmenlenkern hart ins Gericht, denn die Möglichkeit von außen den Betrieb zu lenken und zu steuern wurde sträflich vernachlässigt.

powered by
Zadara Itiso GmbH
Fujitsu Technology Solutions GmbH Infortrend
N-TEC GmbH FAST LTA
Folgen Sie speicherguide.de auch auf unseren Social-Media-Kanälen
Folgen Sie und auf Facebook Folgen Sie und auf YouTube Folgen Sie und auf Twitter