16.12.2016 (Doc Storage)
4.5 von 5, (8 Bewertungen)

Eine Branche im Stillstand – noch ein Rant

  • Inhalt dieses Artikels
  • Messen sind meist verschwendete Zeit
  • Zu viele gespeicherte Daten außerhalb des RZ
  • Dezentral und verteilt wird im Chaos enden
Nachdem seine Kolumne zum »Hackerangriff auf die Telekom« so gut angekommen ist, fühlte sich unser Doc motiviert, gleich noch einen Rant nachzulegen. Zu viel passiert aus seiner Sicht heute außerhalb der Rechenzentren. Dezentral und verteilt kann auf Dauer nicht die Lösung sein. Doc Storage fordert bessere Werkzeuge und neue Innovationen. Die Zeit des Stillstands habe lange genug gedauert.

Meinung Doc Storage:

Liebe Leser,

ja, ich bin derzeit gut drauf. Nicht nur wegen des rosa Riesen, der mir wie bereits letzte Woche geschildert das Leben mehr oder weniger mit seinen minuten- bis stundenlangen Ausfällen versüßt, nur um mich hinterher mit einem Beschwichtigungsanruf ruhigstellen zu wollen. Nein, auch nicht nur wegen der unverschämten Datenbegrenzung über LTE, mit der derselbe rosa Riese versucht, seine Bilanz noch etwas mehr auf zu hübschen. Und auch nicht wegen des neuen sauteuren Mobiltelefons, welches entweder droht sich mit seinem Billigakku selbst zu entleiben oder eine dermaßen empfindliche Anzeige hat, dass man inzwischen seinen Namen mit dem Fingernagel hineinritzen kann.

Nein, was mich am meisten aufregt, ist der Stillstand, zu dem unsere dereinst große Branche gekommen ist. Wenn man sich erinnert, fünfzehn, sogar zwanzig Jahre zurück, da gab es jeden Monat, ach was, jede Woche von einem der großen aus Japan oder von der US-Ostküste etwas Neues. Etwas wirklich Neues, noch nie in dieser Form dagewesenes. Die ersten wirklich brauchbaren Speichernetze kamen auf, sogar für Kleinstrechner über FC, NAS ergänzte das Ganze für den erweiterten Hausgebrauch, täglich wurden wir mit neuen Werkzeugen zur Verwaltung und Zähmung der damals im Vergleich zu heute homöopathischen Datenmengen erfreut.

Die Plattenhersteller hetzten von SCSI-1 über -2, -3, Ultra, Ultra-2, -160 und -320 in kleineren als zweijährigen Abständen zu immer neuen Leistungsklassen, nicht zu reden von den dann folgenden FC-Implementationen. Fingen wir mit 20- oder 40-GByte-Platten im 5,25-Zoll-Format an, gesellten sich bald schon 80er, 200er, 500er und die ersten TByte-Laufwerke dazu, dann schon im 3,5-Zoll-Päckchen. Die Kanalanschlüsse überschlugen sich mit immer schnelleren Standards, 1, 2, 4 und 8 Gbit, so schnell, dass man kaum mit Nachrüsten hinterherkam, die Doppelböden am besten gleich gar nicht mehr schloss.

Und heute? Man lese sich nur einmal die als sogenannte News hochgejazzten Meldungen der Hersteller durch. Ein Rechnerhersteller aus Texas schießt sich mit der Akquise eines dereinst hochinnovativen Speicherentwicklers aus Neuengland beiden Unternehmen nachhaltig ins Knie. Von den Japanern ist man froh, wenn man überhaupt mal eine Meldung liest, und sei es nur über die Initiierung eines neuen – huaaaa – Partnerprogrammes. Der vormals gigantische Bläuling hat sich nach Jahren (oh, oh, ich hör schon die Schreie, aber so ist es gar nicht gemeint…) weiblicher Herrschaft zu einem dahinsiechenden Krüppel gemendelt, der froh sein kann, wenn er mal in einem Quartal keine tausend Mitarbeiter »freisetzt«. Sprünge, nicht kleine Trippelschrittchen, erwartet man sich von den Laboren in der Schweiz, früher gab es Nobelpreise, heute ist man schon froh, am nächsten Ersten nochmal für vier Wochen wiederkommen zu dürfen.

Messen sind meist verschwendete Zeit

Weiland konnte man Ausstellungen wie die CeBIT oder die zur Cloud Expo verkommene Storage Networking World nicht erwarten, wurden dort doch jedes Mal bahnbrechende Neuigkeiten vorgestellt, überboten sich die Anbieter in immer neuen Innovationszyklen. Heute müssen die Veranstalter den Großteil der Karten verschenken, um überhaupt noch jemanden nach Hannover oder Frankfurt zu locken. Die Schließung von Halle 1 war ein Fanal, man hätte es ahnen, nein, man hätte es wissen müssen. Halle 2 und auch die Hinterkammerausstellung in Frankfurt sind zu Buzzword-Schreiwettbewerben verkommen, man mag sowas wie »Cloud«, »Big Dingsbums«, ach ja, und natürlich »Software-defined Irgendwas« nicht mehr hören geschweige denn noch eine einschlägige Präsentation über sich ergehen lassen. Die Zeit ist einem zu schade geworden, überhaupt noch hinzusehen.

Das alles könnte man ja ertragen, wenn es da nicht den Anwender gäbe. Dieses garstige, hinterhältige Wesen, welches uns jedes Jahr mit der doppelten Menge an Datenmüll zudeckt. Eiskalt, gewissenlos, ohne jede Zurückhaltung. Wir könnten wenigstens erwarten, dass uns die Hersteller mit neuen Wegen helfen, mit diesem Tsunami umzugehen. Und das nicht nur im Rechenzentrum, in den ohnehin sehr gut organisierten Maschinen unter unserer ständigen Kontrolle. Nein, auch dort, wo die Daten erzeugt werden, wo der ganze Dreck ins Datenmeer verklappt wird. Telefone, Mobilrechner, externe Speicher und andere Quellen sind nach wie vor größtenteils anarchisch, wenn überhaupt irgendwie organisiert. Hier erwarte ich von den Großen Lösungen, und kein sinnfreies Gequakel über »digitale Transformation« (was immer dies sein soll) oder intelligente Planeten.

Zu viele gespeicherte Daten außerhalb des RZ

Schon jetzt gibt es weit mehr gespeicherte Informationen außerhalb als innerhalb der Rechenzentren, und dies Verhältnis verbessert sich nicht zum Guten. Fälle wie der Telekom-Angriff vor zwei Wochen oder die Geiselnahme tausender Privat- und Firmenrechner zeigen, dass es Zeit wird, wichtige Daten wieder hinein in die Burg hinter die Mauern des Rechenzentrums zu holen, die Zugbrücken hochzuziehen und unsere Arbeit zu machen. Aber dafür bräuchten wir wesentlich andere, wesentlich bessere Werkzeuge als jetzt. Und nicht die tausendste Version irgendeiner Cloud-Software oder die millionste Ausgabe eines ach so toll integrativen Backup-Werkzeuges.

Dezentral und verteilt wird im Chaos enden

Werdet Euch endlich bewusst, dass man nicht alle Probleme, und wir haben wirklich welche da draußen, auch wenn man das laut Marketing nicht sagen darf, mit Software lösen kann. Werdet Euch bewusst, dass dezentral und verteilt irgendwann im Chaos endet – das hatten wir schon mal, das brauchen wir nicht wieder. Und werdet Euch bewusst, dass wir heute versuchen mit Systemen, die ihren Ursprung mehr oder weniger in den Neunzigern haben, Probleme (ups!) zu lösen, die hundert-, wenn nicht tausendmal größer sind. Das wird nicht funktionieren.

Werdet endlich wieder innovativ. Entwickelt neues. Schafft Fortschritt. Sofort. Nicht auf Roadmap-Folien.

Gruß
Doc Storage


Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de
Kommentare (1)
23.12.2016 - Marcus

Hallo Herr Doktor.

In den meisten Punkten stimme ich Ihnen wieder zu, aber:
Ich würde die jetztige Situation nicht als Stillstand, sondern eher als "Ruhe vor dem Sturm" bezeichnen...

Dies hat es in der Vergangenheit mehrfach gegeben.

Mein Blick in die Glaskugel:

Noch fehlen ein paar Puzzelteilchen und die sich immer mehr als Entwicklungsbremse herausstellende klassische (oder besser "antike") "Intel x86-64" Rechnerarchitektur, mit um den Prozessor herum organisiertem I/O, flüchtigem Arbeitsspeicher, Storage usw. kann "ad Acta" gelegt werden.
CPU zentrierte Lösungen aus einzelnen Servern mit eigenem Prozessor und Arbeitsspeicher passen m.M. nicht mehr in eine nahezu komplett virtualisierte IT-Welt. Dies baut allmählich aber sicher einen immer größeren "Handlungsbedarf" bei den Entwicklern auf.

Einer der Lösungsansätze:
Nach virtualiesierter Software auf virtuellen Maschienen wird nun auch eine sich virtuell anpassende Hardware verlangt, die sich nicht mehr auf statischen Servern befindet sondern deren Komponeten sich bspw. aus Compute und Memory Pools kontinuierlich umkonfigurieren lässt und deren einzelne Bestandteile sich auch nicht mehr unbedingt am selben Ort befinden müssen. Hierdurch werden auch die Grenzen zwischen "interner" und "externer" Datenverarbeitung neu gezogen werden müssen.

Hierfür muss aber wohl mit nahezu allen liebgewonnen Paradigmen der letzten 40 Jahre gebrochen werden.
In diesem Zusammenhang wird wohl auch die Rolle des "traditionellen" Storage neu definiert werden müssen.
Ansätze hierzu gibt es bereits von einigen großen Herstellern...

Es bleibt spannend!


Mehr von Doc. tec. Storage 16.10.2020 Welchen Stellenwert haben DMTF Redfish und SNIA Swordfish?

Die neuen Versionen von DMTF Redfish und SNIA Swordfish enthalten nun NVMe- und NVMe-oF-Spezifikations-Verbesserungen. Da stellt sich die Frage nach dem Stellenwert der beiden Spezifikationen. Doc Storage sieht hier aber großes Potenzial.


09.10.2020 Was ist ein Ingress- und Egress-Datenverkehr?

Der Datenverkehr unterliegt in Netzwerken und der Cloud einem definierten Regelwerk. Dabei fallen mitunter auch die Begriffe Ingress und Egress. Doc Storage erklärt die Bedeutung.


28.08.2020 Kommt mit QLC-Flash das Ende hybrider Speichersysteme?

Die ersten Arrays mit QLC-Flash-Technologie kommen auf den Markt. Einige Hersteller prophezeien durchaus vollmundig das Ende von hybriden Speichersystemen, also solchen mit Flash und Festplatten. Ist dieses Ende tatsächlich absehbar oder wie sieht die Zukunft in diesem Bereich aus?


21.08.2020 Mehr in die Zukunft agieren, weniger jammern

Jammern ist gerade irgendwie in Mode. Der Virus, der Markt, die Geschäfte – natürlich ist es aktuell schwierig. Für die Kunden gestaltet sich vieles aber positiv, braucht es doch weniger Manpower, um Produkte und Lösungen in Betrieb zu nehmen. Das macht sich im Geldbeutel bemerkbar. IT-Anbieter müssen künftig nicht nur in Studien in die Zukunft schauen, sondern sich generell schneller anpassen und auf neue Gegebenheiten reagieren.


07.08.2020 Marktstudien: Ergebnisse meist zu offensichtlich

Marktstudien belegen in der Regel bekannte Trends, mehr nicht. Wirkliche Erkenntnisse oder Neues fördern sie, laut Doc Storage, nicht zu Tage. Dies belegt er anhand zweier aktueller Beispiele: Die Analysekriterien sind schwammig, die Argumente eher fadenscheinig und die Resultate offensichtlich. Zudem sei fragwürdig, in wie weit Sponsoren die Ergebnisse beeinflussen.


31.07.2020 Business-Continuity: Zu viele Firmen unvorbereitet auf K-Fall

Jüngste Studien sprechen von einem steigenden Bewusstsein in Sachen Business-Continuity. Doc Storage kann den Zahlen allerdings wenig positives abgewinnen, denn noch nicht mal zwei Drittel aller Unternehmen besitzen einen Business-Continuity-Plan und fast die Hälfte verfügt über keine fest definierte Rückkehrmaßnahmen. Aus seiner Sicht ist es erschreckend, wie viele Firmen und IT-Abteilungen nicht auf einen Katastrophenfall vorbereitet sind.

powered by
N-TEC GmbH FAST LTA
Cloudian Tech Data IBM Storage Hub
Folgen Sie speicherguide.de auch auf unseren Social-Media-Kanälen
Folgen Sie und auf Facebook Folgen Sie und auf YouTube Folgen Sie und auf Twitter