16.12.2016 (Doc Storage)
4.5 von 5, (8 Bewertungen)

Eine Branche im Stillstand – noch ein Rant

  • Inhalt dieses Artikels
  • Messen sind meist verschwendete Zeit
  • Zu viele gespeicherte Daten außerhalb des RZ
  • Dezentral und verteilt wird im Chaos enden
Nachdem seine Kolumne zum »Hackerangriff auf die Telekom« so gut angekommen ist, fühlte sich unser Doc motiviert, gleich noch einen Rant nachzulegen. Zu viel passiert aus seiner Sicht heute außerhalb der Rechenzentren. Dezentral und verteilt kann auf Dauer nicht die Lösung sein. Doc Storage fordert bessere Werkzeuge und neue Innovationen. Die Zeit des Stillstands habe lange genug gedauert.

Meinung Doc Storage:

Liebe Leser,

ja, ich bin derzeit gut drauf. Nicht nur wegen des rosa Riesen, der mir wie bereits letzte Woche geschildert das Leben mehr oder weniger mit seinen minuten- bis stundenlangen Ausfällen versüßt, nur um mich hinterher mit einem Beschwichtigungsanruf ruhigstellen zu wollen. Nein, auch nicht nur wegen der unverschämten Datenbegrenzung über LTE, mit der derselbe rosa Riese versucht, seine Bilanz noch etwas mehr auf zu hübschen. Und auch nicht wegen des neuen sauteuren Mobiltelefons, welches entweder droht sich mit seinem Billigakku selbst zu entleiben oder eine dermaßen empfindliche Anzeige hat, dass man inzwischen seinen Namen mit dem Fingernagel hineinritzen kann.

Nein, was mich am meisten aufregt, ist der Stillstand, zu dem unsere dereinst große Branche gekommen ist. Wenn man sich erinnert, fünfzehn, sogar zwanzig Jahre zurück, da gab es jeden Monat, ach was, jede Woche von einem der großen aus Japan oder von der US-Ostküste etwas Neues. Etwas wirklich Neues, noch nie in dieser Form dagewesenes. Die ersten wirklich brauchbaren Speichernetze kamen auf, sogar für Kleinstrechner über FC, NAS ergänzte das Ganze für den erweiterten Hausgebrauch, täglich wurden wir mit neuen Werkzeugen zur Verwaltung und Zähmung der damals im Vergleich zu heute homöopathischen Datenmengen erfreut.

Die Plattenhersteller hetzten von SCSI-1 über -2, -3, Ultra, Ultra-2, -160 und -320 in kleineren als zweijährigen Abständen zu immer neuen Leistungsklassen, nicht zu reden von den dann folgenden FC-Implementationen. Fingen wir mit 20- oder 40-GByte-Platten im 5,25-Zoll-Format an, gesellten sich bald schon 80er, 200er, 500er und die ersten TByte-Laufwerke dazu, dann schon im 3,5-Zoll-Päckchen. Die Kanalanschlüsse überschlugen sich mit immer schnelleren Standards, 1, 2, 4 und 8 Gbit, so schnell, dass man kaum mit Nachrüsten hinterherkam, die Doppelböden am besten gleich gar nicht mehr schloss.

Und heute? Man lese sich nur einmal die als sogenannte News hochgejazzten Meldungen der Hersteller durch. Ein Rechnerhersteller aus Texas schießt sich mit der Akquise eines dereinst hochinnovativen Speicherentwicklers aus Neuengland beiden Unternehmen nachhaltig ins Knie. Von den Japanern ist man froh, wenn man überhaupt mal eine Meldung liest, und sei es nur über die Initiierung eines neuen – huaaaa – Partnerprogrammes. Der vormals gigantische Bläuling hat sich nach Jahren (oh, oh, ich hör schon die Schreie, aber so ist es gar nicht gemeint…) weiblicher Herrschaft zu einem dahinsiechenden Krüppel gemendelt, der froh sein kann, wenn er mal in einem Quartal keine tausend Mitarbeiter »freisetzt«. Sprünge, nicht kleine Trippelschrittchen, erwartet man sich von den Laboren in der Schweiz, früher gab es Nobelpreise, heute ist man schon froh, am nächsten Ersten nochmal für vier Wochen wiederkommen zu dürfen.

Messen sind meist verschwendete Zeit

Weiland konnte man Ausstellungen wie die CeBIT oder die zur Cloud Expo verkommene Storage Networking World nicht erwarten, wurden dort doch jedes Mal bahnbrechende Neuigkeiten vorgestellt, überboten sich die Anbieter in immer neuen Innovationszyklen. Heute müssen die Veranstalter den Großteil der Karten verschenken, um überhaupt noch jemanden nach Hannover oder Frankfurt zu locken. Die Schließung von Halle 1 war ein Fanal, man hätte es ahnen, nein, man hätte es wissen müssen. Halle 2 und auch die Hinterkammerausstellung in Frankfurt sind zu Buzzword-Schreiwettbewerben verkommen, man mag sowas wie »Cloud«, »Big Dingsbums«, ach ja, und natürlich »Software-defined Irgendwas« nicht mehr hören geschweige denn noch eine einschlägige Präsentation über sich ergehen lassen. Die Zeit ist einem zu schade geworden, überhaupt noch hinzusehen.

Das alles könnte man ja ertragen, wenn es da nicht den Anwender gäbe. Dieses garstige, hinterhältige Wesen, welches uns jedes Jahr mit der doppelten Menge an Datenmüll zudeckt. Eiskalt, gewissenlos, ohne jede Zurückhaltung. Wir könnten wenigstens erwarten, dass uns die Hersteller mit neuen Wegen helfen, mit diesem Tsunami umzugehen. Und das nicht nur im Rechenzentrum, in den ohnehin sehr gut organisierten Maschinen unter unserer ständigen Kontrolle. Nein, auch dort, wo die Daten erzeugt werden, wo der ganze Dreck ins Datenmeer verklappt wird. Telefone, Mobilrechner, externe Speicher und andere Quellen sind nach wie vor größtenteils anarchisch, wenn überhaupt irgendwie organisiert. Hier erwarte ich von den Großen Lösungen, und kein sinnfreies Gequakel über »digitale Transformation« (was immer dies sein soll) oder intelligente Planeten.

Zu viele gespeicherte Daten außerhalb des RZ

Schon jetzt gibt es weit mehr gespeicherte Informationen außerhalb als innerhalb der Rechenzentren, und dies Verhältnis verbessert sich nicht zum Guten. Fälle wie der Telekom-Angriff vor zwei Wochen oder die Geiselnahme tausender Privat- und Firmenrechner zeigen, dass es Zeit wird, wichtige Daten wieder hinein in die Burg hinter die Mauern des Rechenzentrums zu holen, die Zugbrücken hochzuziehen und unsere Arbeit zu machen. Aber dafür bräuchten wir wesentlich andere, wesentlich bessere Werkzeuge als jetzt. Und nicht die tausendste Version irgendeiner Cloud-Software oder die millionste Ausgabe eines ach so toll integrativen Backup-Werkzeuges.

Dezentral und verteilt wird im Chaos enden

Werdet Euch endlich bewusst, dass man nicht alle Probleme, und wir haben wirklich welche da draußen, auch wenn man das laut Marketing nicht sagen darf, mit Software lösen kann. Werdet Euch bewusst, dass dezentral und verteilt irgendwann im Chaos endet – das hatten wir schon mal, das brauchen wir nicht wieder. Und werdet Euch bewusst, dass wir heute versuchen mit Systemen, die ihren Ursprung mehr oder weniger in den Neunzigern haben, Probleme (ups!) zu lösen, die hundert-, wenn nicht tausendmal größer sind. Das wird nicht funktionieren.

Werdet endlich wieder innovativ. Entwickelt neues. Schafft Fortschritt. Sofort. Nicht auf Roadmap-Folien.

Gruß
Doc Storage


Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de
Kommentare (1)
23.12.2016 - Marcus

Hallo Herr Doktor.

In den meisten Punkten stimme ich Ihnen wieder zu, aber:
Ich würde die jetztige Situation nicht als Stillstand, sondern eher als "Ruhe vor dem Sturm" bezeichnen...

Dies hat es in der Vergangenheit mehrfach gegeben.

Mein Blick in die Glaskugel:

Noch fehlen ein paar Puzzelteilchen und die sich immer mehr als Entwicklungsbremse herausstellende klassische (oder besser "antike") "Intel x86-64" Rechnerarchitektur, mit um den Prozessor herum organisiertem I/O, flüchtigem Arbeitsspeicher, Storage usw. kann "ad Acta" gelegt werden.
CPU zentrierte Lösungen aus einzelnen Servern mit eigenem Prozessor und Arbeitsspeicher passen m.M. nicht mehr in eine nahezu komplett virtualisierte IT-Welt. Dies baut allmählich aber sicher einen immer größeren "Handlungsbedarf" bei den Entwicklern auf.

Einer der Lösungsansätze:
Nach virtualiesierter Software auf virtuellen Maschienen wird nun auch eine sich virtuell anpassende Hardware verlangt, die sich nicht mehr auf statischen Servern befindet sondern deren Komponeten sich bspw. aus Compute und Memory Pools kontinuierlich umkonfigurieren lässt und deren einzelne Bestandteile sich auch nicht mehr unbedingt am selben Ort befinden müssen. Hierdurch werden auch die Grenzen zwischen "interner" und "externer" Datenverarbeitung neu gezogen werden müssen.

Hierfür muss aber wohl mit nahezu allen liebgewonnen Paradigmen der letzten 40 Jahre gebrochen werden.
In diesem Zusammenhang wird wohl auch die Rolle des "traditionellen" Storage neu definiert werden müssen.
Ansätze hierzu gibt es bereits von einigen großen Herstellern...

Es bleibt spannend!


Mehr von Doc. tec. Storage 17.05.2019 NAS-Caching oder Tiering für VMs multiple Zugriffe?

In einer Lehrumgebung werden virtuellen Maschinen auf einem NAS mit 10GbE-Anbindung gespeichert. Nachdem eine Erweiterung mit NVMe-Flash ansteht, stellt sich die Frage, ob eine Caching- oder eine Tiering-Konfiguration die sinnvollere Wahl ist?


10.05.2019 Wird Flash nun auch zum Backup-Medium?

Flash wird zunehmend auch für Backup interessant. Der Geschwindigkeitsvorteil soll die Dauer der Sicherung wie auch der Wiederherstellung reduzieren. Macht dies in der Praxis bereits Sinn – auch aus Kostensicht?


03.05.2019 Unterschied zwischen Active/Active und Active/Passive

Beim Thema Hochverfügbarkeit unterscheidet man zwischen Konfigurationen, die Active/Active bzw. Active/Passive agieren. Was ist genau der Unterschied und für welche Szenarien empfehlen sich die beiden Möglichkeiten? Welche Cluster-Architektur bietet hinsichtlich Skalierbarkeit mehr Spielraum für zukünftigen Lastzunahmen?


26.04.2019 Dateisysteme für den PByte-Bereich

Datenberge jenseits des PByte-Bereichs, Cloud-Anbindungen und Analytics-Szenarien stellen Dateiysteme vor neue Herausforderungen. Der Markt bietet einige Optionen wie GPFS, Gluster FS, OneFS oder QF2. Worauf gilt es zu achten? Update zu CephFS und ZFS.


05.04.2019 Neuordnung des Storage-Tiering

Nachdem sich Flash und SSDs mittlerweile auch in mehrere Leistungsklassen unterteilen, steht die Technik nicht mehr nur für Tier 0. 15k-HDDs scheinen vor dem Aus zu stehen. Gilt dies auch für alle SAS-Platten? Wie sieht die Neuordnung des Storage-Tiering aktuell aus?


15.03.2019 30 Jahre World Wide Web: Was gibt es zu feiern?

Das World Wide Web feiert seinen 30. Geburtstag. Ohne dem Internet ist unser heutiges Leben nicht mehr vorstellbar. Für Doc Storage hat das Netz aber auch genug Schattenseiten. An Regulierungen bzw. an das vom Erfinder erhoffte bessere Internet, glaubt er nicht.

powered by
Boston Server & Storage Solutions Datacore Software
Itiso GmbH Seagate Technology
N-TEC GmbH FAST LTA AG
Fujitsu Technology Solutions GmbH Pure Storage