08.05.2020 (Doc Storage)
4 von 5, (3 Bewertungen)

HPC-Speicher: schnell & sicher schließen sich meist aus

  • Inhalt dieses Artikels
  • Die befragten Gruppen scheinbar ohne Ahnung...
  • Wer Garbage in die Cloud schreibt, bekommt auch Garbage zurück...

Kolumne Doc Storage:

Hallo liebe Leser,

Da segnet uns eine Studie mit der Aussage, dass die Kosten für Speichersysteme negative Auswirkungen auf die Ausfallsicherheit von Hochleistungs-Rechensystemen haben. Zunächst einmal verdreht das ja nun die Realitäten der letzten Jahre, wenn nicht Jahrzehnte. Die lieben Orchideen-Informatiker in ihren Hochleistungsumgebungen haben doch immer, von Anfang an, auf höchsten Durchsatz und breiteste Verbindungen gepocht. Dass vor allem der höchste Durchsatz der natürliche Feind jeglicher Redundanz, höherwertiger Protokolle und damit eben der Ausfallsicherheit der benutzten Systeme hatte und hat, ist damit eine ganz natürliche Folge.

Anzeige

Jeder, der auch nur eine kurze Zeit in Speicherumgebungen produktiv zugebracht hat weiß, dass es da diesen Schieber gibt, von leistungsfähig und praktisch ohne zusätzliche Funktionen (und damit auch ohne Redundanz) rüber zu immer weniger Leistung, aber dafür mit immer mehr Funktionalitäten und Sicherheit.

Die befragten Gruppen scheinbar ohne Ahnung...

Naja, vielleicht liegt es auch daran, dass von den befragten Gruppen (Manager, Einkäufer, Beeinflusser und Anwender) nur einige tatsächlich einigermaßen Ahnung von dem haben, wovon sie da sprechen soll. Dass die immer nervende »digitale Transformation« (noch immer hat mir noch niemand erklärt, was der Blödsinn wirklich sein soll…) und die von Marketingfritzen weltweit nun präferierte künstliche Intelligenz (vor der schon der Kollege Weizenbaum ausreichend und wohlbegründet gewarnt hat) die Treiber der einfallslosen Industrie sind, nun ja, der eine muss ja vom anderen abschreiben.

Aber wo denn die sieben (!!!) Prozent jährlicher Steigerungsrate des globalen Hochleistungsmarktes (also für HPC-Systeme, nicht dass der Markt an sich Hochleistungen bringen würde) herkommen sollen, vor allem vor dem Hintergrund der jetzigen Situation, das muss mir erstmal einer erklären. Da war wohl eher der feuchte Wunsch einer Marketingabteilung Vater dieser lächerlichen Gedanken.

Spezialsysteme zwangsläufig komplexer zu integrieren

Die angesprochenen ungeplanten Ausfallzeiten (ich frage mich seit Jahrzehnten, ob es denn wohl auch geplante Ausfälle gibt…?) sind – einmal wieder – die Geister, die die Anwender immer schnellerer Speichersysteme mit dem Drücken des Schiebers (s.o.) in die Performance-Ecke selbst herbeigerufen haben. Und dass es eben mehr Zeit kostet, Systeme mit wenigen höheren Funktionen in die eigene Umgebung zu integrieren, wen wundert das bitte?

Zweifelhaft ist auch das in der Studie genannte Rechenbeispiel: In den befragten Firmen – mit fünf Millionen bis zehn Milliarden US-Dollar Jahresumsatz – verursacht der Stillstand eines Speichersystems, also meistens der gesamten DV, lediglich einen Schaden von einer Million US-Dollar? Eine Milliarde durch 200 Werktage ist bei mir schonmal das Fünffache. Wenn darüber hinaus die Speichersysteme (Mehrzahl…) mehrfach im Monat stillstehen, dann gehört das unheilige Gespann aus Einkäufer und Speicherfritze rausgeschmissen. Das kann passieren, darf aber nicht. Nach dem Prinzip leben wir seit Jahrzehnten, und es funktioniert. Fertig.

Hinzukommt die Forderung, die Hersteller sollten einen Nutzen über den Anschaffungspreis hinaus, Ausfallsicherheit, einen reaktionsschnellen Support und einen unterbrechungsfreien Betrieb bieten. Gibts alles, ebenfalls seit Jahrzehnten, absolut redundante und überflüssige Aussage. Kostet eben nur Geld, welches viele in ihrem Elfenbeintürmchen nicht ausgeben wollen. Aber genug aufgeregt.

Wer Garbage in die Cloud schreibt, bekommt auch Garbage zurück...

Es gibt ja noch andere, über die man sich mindestens Gedanken machen kann. Da sind die Hersteller von Backup-Lösungen in Multi-Cloud-Umgebungen (wem außer mir läuft da der kalte Schauer den Rücken runter?), der offenbar zaubern kann und die Sicherungszeiten mal eben auf ein Fünftel reduziert und die der Rücksicherung glatt drittelt. Wie das allerdings funktionieren soll, wenn die in der Wolke gelagerten Backup-Daten aus dieser herausgelesen, entpackt, ent-dedupliziert und dann wieder zurückgeschrieben werden, sagen sie niemandem.

Genauso wie es keine Auskunft gibt, wer denn Backups, die ausschließlich draußen in der Wolke liegen, auf ihre Integrität und Brauchbarkeit hin untersucht, und das regelmäßig. Und jetzt komme mir niemand mit »naja, in der Cloud werden die Daten ja dreifach gesichert.« Garbage in, Garbage out.

Ach ja, und um nochmal auf den sgTalk #05 von letzter Woche zurückzukommen – einen Preis sucht man (natürlich) mal wieder vergebens.

So, jetzt habe ich mich erstmal genug aufgeregt. Morgen sind noch mehr Artikel dran, jetzt muss ich erstmal wieder in Videokonferenzen abtauchen…😉

Gruß
Doc Storage

Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de

Mehr von Doc. tec. Storage 05.06.2020 Daten-Crash beim Kopieren zwischen zwei NAS-Systemen

Ein Leser wollte Daten von einem in die Jahre gekommen NAS-System auf ein Neues überspielen. Der Windows-Explorer entpuppte sich allerdings als kein zuverlässiges Kopierwerkzeug für große Datenmengen. Es kam zum Daten-Crash, inklusive einem beschädigtem Dateisystem. Doc Storage sieht bestenfalls eine minimale Chance, die Daten wiederherzustellen.


29.05.2020 Ein RAID ersetzt kein Backup

Im NAS-System einer unserer Leser ist eine HDD ausgefallen. Während des Rebuilds auf eine neue Festplatte kommt es zum Supergau und es fällt auch die zweite der beiden ursprünglichen RAID-1-Platten aus. Der Nutzer hatte diese Konfiguration extra aus Gründen der Datensicherheit gewählt. Da bleibt Doc Storage leider nur eine Antwort: Ein RAID ersetzt kein Backup.


15.05.2020 Doc Storage: »Ich vermisse den Gegenwind«

Doc Storage ist fassungslos, fast sogar ein kleinwenig sprachlos. Na ja, nicht ganz, Sie kennen ihn ja. Nachdem er den Einfluss der Coronakrise auf die IT ausführlich und aus verschiedenen Blickwinkeln beleuchtet hat, inklusiver einiger steiler Thesen, ist es ihm hier eindeutig zu ruhig. Da hatte er sich mehr Gegenwind erwartet. Liebe Leser, unser Doc hat Ihnen etwas zu sagen…


08.05.2020 HPC-Speicher: schnell & sicher schließen sich meist aus

Doc Storage nimmt sich in seiner Kolumne unter anderem die HPC-Studie von Hyperion Research vor. High-Performance-Computing hat aus seiner Sicht klar den Auftrag schnell zu sein. Die von den Marktforschern geforderte Ausfallsicherheit, wäre kein Problem, wenn die Firmen genug Geld ausgeben würden. Ansonsten gehe ein Mehr an Sicherheitsmaßnahmen immer zu Lasten der Leistung.


30.04.2020 Cloud vs. On-Premises: Wichtige Daten nur inhouse speichern

Wer daran denkt, wichtige Daten in die Cloud auszulagern, sollte sich nicht fragen, wie hoch die Einsparungen gegenüber On-Premises ausfallen, sondern was es kosten wird, sollten die Daten kompromittiert werden. Der Cloud-Act ist zwar eine reale Gefahr, letztendlich ist aber jeder halbwegs begabte Hacker eine Bedrohung. Laut Doc Storage kann der Rat daher nur lauten: »Behalten Sie Ihre Daten inhouse mit maximalen Sicherheitsvorkehrungen«.


24.04.2020 Corona/IT Teil 3: Die Zeit nach Corona: Ein Blick in die Zukunft

Wann auch immer die Einschränkungen aufgehoben werden, es wird eine Zeit danach geben. Und darin ist sich Doc Storage sicher, naja, er hofft es, es wird vieles nicht mehr so sein wie vorher. Möglicherweise stellen Firmen fest, dass es mit weniger Hard- und Software genauso gut geht, ohne externe Berater und einem wesentlich geringeren Budget. Und die Ersparnis darin liegt, die IT vor allem intern zu regeln.

powered by
Zadara Itiso GmbH
Fujitsu Technology Solutions GmbH Infortrend
N-TEC GmbH FAST LTA
Folgen Sie speicherguide.de auch auf unseren Social-Media-Kanälen
Folgen Sie und auf Facebook Folgen Sie und auf YouTube Folgen Sie und auf Twitter