28.08.2015 (Doc Storage)
4.9 von 5, (8 Bewertungen)

Brauchen wir die ganzen Cluster?

Leserfrage: Mein CIO meinte, ich, als geneigter Administrator, müsste mich mehr mit Clustern beschäftigen, sei es Openstack, Ceph, Hadoop, Kubernetes und so weiter. Aber je länger ich mich nun damit beschäftige, desto mehr bin ich zu der Ansicht gekommen, dass wir alle unternetzt sind. Teilen Sie meine ironisch/sarkastische Ansicht?

Antwort Doc Storage:

Da Sie schon bemerken, dass Ihre Frage ironisch und sarkastisch ausgelegt ist, lassen Sie mich ebenso antworten: Wir sind nicht nur alle unternetzt, wir haben uns über die letzten zehn Jahre auch sehenden Auges der letzten vernünftigen Rechensysteme beraubt, die da draußen zu finden waren. IBM, Siemens, Unisys und andere haben über Jahrzehnte Rechner geliefert, die stabil, sicher und schnell allen uns nur einfallenden Aufgaben mehr als gewachsen waren. Es gab keine Viren, keine Schadprogramme, und kein Regierungssystem musste runtergefahren werden, nur weil irgendwelche fernöstlichen Programmierer meinten, darin irgendwelche Geheimnisse suchen und finden zu müssen. Aber dann kamen Client/Server…

Mit Client/Server wurde den Geräten der Datendarstellung auch immer mehr die Datenverarbeitung anvertraut. Aber irgendwann merkte man, dass das Aufstellen eines Windows- oder Linux-Rechners (Server mag man diese Böcke ja wohl kaum nennen) allein nicht reicht, und versuchte wenigstens im Ansatz, die Prinzipien aus der Host-Welt auf diese Programmstarter zu projizieren. Virensuch- und -vernichtungsprogramme, Login-Verwaltungen und – ach ja, Ihre Frage – das Überstülpen einer halbwegs sicheren Hardware-Konfiguration (von Kollegen in Vorträgen gerne als »fehlertolerant« bezeichnet…). Und zu dieser gehört nun einmal das Einrichten eines – mindestens – 2+1-Clusters, das Aufstellen der Kisten mit einem gewissen Abstand voneinander und natürlich die Adaption dieser ganzen Fehlkonstruktion auf Netzwerk und Speicher.

Es gibt nichts – ich betone – NICHTS, was diese Steißgeburten der EDV besser, schneller oder billiger könnten als die oben genannten, Jahrzehnte bewährten Systeme, wenn man auf dieselbe Leistung kommen möchte. Und es komme mir keiner mit »ach da mache ich mich ja abhängig von einem Hersteller«. Was macht Ihr denn mit Eurem Open-Götzen, um den Ihr seit den Zeiten mit 65 Disketten mit einer Distribution (jaja, so alt seid Ihr nämlich auch schon, willkommen unter den Dinosauriern!) herumtanzt? Ihr macht Euch am Ende abhängig von der Entscheidung eines einzigen ebenfalls in die Jahre gekommenen Norwegers. Auch nicht besser, oder?

Wir sind also in der EDV nicht unternetzt, sondern eher zu sehr durchsetzt von tollen, bunten Mausschubser-Ideen, die über die letzten zwei Jahrzehnte die Kassen etlicher »Berater«-Firmen gefüllt und uns immer neue Generationen an krawattentragenden englischradebrechtenden Jungprogrammierern beschert haben, die ebenfalls bezahlt – und ertragen – werden wollen.

Ich muss also annehmen, dass Ihr CIO deutlich jünger als 40 Jahre ist und es deshalb einfach nicht besser weiß. Eventuell geht es Ihrem Unternehmen einfach zu gut, und dass Geld verbrannt sein will, oder aber dass Ihr Chef Sie nicht mag und Sie daher für etliche Monate unter den Füßen weghaben will.

Wie gesagt – ironisch/sarkastisch. :-)

Gruß
Doc Storage

Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de
Kommentare (3)
08.09.2015 - bernd.schaub

Ich würde mich nicht so weit aus dem Fenster legen. Er hat ja im Groben Recht, mich nervt dieser Windows/PC Wahnsinn auch. Nur ist Linux nicht generell jedes Unix, Torwalds nicht die einzig wichtige Person der EDV. Besser, schneller und billiger ... soll man darüber lachen oder nachdenken?

Ich habe gesehen, wie in 1994 eine IBM36 4 mal schneller auf einer Siemens RM400 in Sinix emuliert werden konnte. Musste selbst ansehen, wie mein ehemaliger Chef in 1998 sich noch eine BS2000 für über eine Million DM andrehen ließ. Ja, für Millionen wird man sogar angelächelt und betrogen usw.!

Das Problem was wir heute haben ist die Vernunft, aber heute siegt der Anwender sowie das Geld im positiven und negativen Sinn. Wir gehen derzeit eher aus Faulheit/Stursinn unter, weil man an der falschen Stelle zu viel zahlt und nicht dabei nachdenkt. Entscheider sind meist von Technik und Logik weit entfernt.

28.08.2015 - mress

Darf mich im Moment auch gerade mit OpenStack & Co. beschäftigen. In diesem Zusammenhang empfehle ich die Podiumsdiskussion des OpenStack Vancover Summits zum Thema Storage wo so schön von Donald McDouglas dargestellt wurde, dass sich die Community dort mit Problemen beschäftigt die die Storageindustrie schon vor 10 Jahren gelöst hatte....

Aber: Man sollte hier durchaus unterscheiden: Hadoop ist das Mittel der Wahl wenn es um Map Reduce Verfahren geht. OpenStack ist hochgradig interessant wenn man es mit external arrays oder filesystem based erasure coding koppelt, hoch motivierte Entwicklerteams hat, eigene Test, Referenz und Developmentplattformen davor setzt, mit Distributionen statt mit der native Opensource arbeitet, usw. - vorausgesetzt man benötigt auch hochgradige Automation eines Cloud Operating Systems.

Leider leben wir aktuell gerade ein einer Hochphase der FUD Area (FUD= Fear, Uncertainty and Doubt). Hersteller versprechen einem alles mögliche und Geiz ist Geil ohne auf die Folgen zu achten...

Bei der Gelegenheit fällt mir gerade ein: Vorletzte Woche kam es zu Datenverlust in einem belgischen RZ bei Google - hat aber wohl kaum einen interessiert - die Anwendungen sind inzwischen wohl doch alle Multicloud-fähig....

28.08.2015 - thomas.hertli

Kann die Meinung von Doc Storage nur teilen und finde die Antwort klasse, auch wenn ich diese auf einem "Bock" gelesen habe.


Mehr von Doc. tec. Storage 02.08.2019 Soft-/Hardware: Wie Daten richtig verschlüsseln?

Eine Software-Verschlüsselung soll weniger Probleme verursachen, als eine Hardware-Verschlüsselung. Stimmt das? Was passiert, wenn der gewählte Verschlüsselungsanbieter nicht mehr verfügbar ist, wie kommt man dann an seine Daten?


12.07.2019 Analysten-Prognosen sind verschwendete Lebenszeit

Diesmal nimmt sich Doc Storage die Trendvorhersagen von Marktforschern vor. Seiner Ansicht nach ist vieles nur ein Blick in die Glaskugel, anderes dagegen so offensichtlich, dass es keine weitere Betrachtung benötige. Er hält diese Art von Info für verschwendete Lebenszeit.


28.06.2019 DSGVO bleibt aus DV-Sicht ein unsägliches Thema

Kolumne: Unser Doc Storage ist kein Freund der DSGVO. Dies hat er in mehreren Kolumnen klar formuliert. In seinem zweiten Teil zu »Ein Jahr DSGVO« fasst er nochmal zusammen, warum die Thematik aus seiner DV-Sicht für Firmen unsäglich ist.


14.06.2019 Ein Jahr DSGVO: Aufwand unerträglich hoch

Kolumne: Zur Einführung der DSGVO hat Doc Storage mächtig Dampf abgelassen. Ein Jahr später lässt kaum ein Verband ein gutes Haar an der Datenschutz-Grundverordnung. Der Aufwand für Firmen und IT-Abteilungen sei unerträglich hoch.


07.06.2019 Welchen Flash für welche Anwendung?

Vor rund sechs Jahren schickten sich Flash-Speicher an, sich in Computern und Storage-Systemen zu etablieren. Damals galten die Lösungen aber noch als proprietär. Wo steht die Technik heute und welcher Flash eignet sich für welchen Einsatzzweck?


17.05.2019 NAS-Caching oder Tiering für VMs multiple Zugriffe?

In einer Lehrumgebung werden virtuellen Maschinen auf einem NAS mit 10GbE-Anbindung gespeichert. Nachdem eine Erweiterung mit NVMe-Flash ansteht, stellt sich die Frage, ob eine Caching- oder eine Tiering-Konfiguration die sinnvollere Wahl ist?

powered by
Boston Server & Storage Solutions Itiso GmbH
Fujitsu Technology Solutions GmbH Infortrend
N-TEC GmbH FAST LTA AG
Datacore Software Seagate Technology
Folgen Sie speicherguide.de auch auf unseren Social-Media-Kanälen
Folgen Sie und auf Facebook Folgen Sie und auf YouTube Folgen Sie und auf Twitter