28.08.2015 (Doc Storage)
4.9 von 5, (8 Bewertungen)

Brauchen wir die ganzen Cluster?

Leserfrage: Mein CIO meinte, ich, als geneigter Administrator, müsste mich mehr mit Clustern beschäftigen, sei es Openstack, Ceph, Hadoop, Kubernetes und so weiter. Aber je länger ich mich nun damit beschäftige, desto mehr bin ich zu der Ansicht gekommen, dass wir alle unternetzt sind. Teilen Sie meine ironisch/sarkastische Ansicht?

Antwort Doc Storage:

Da Sie schon bemerken, dass Ihre Frage ironisch und sarkastisch ausgelegt ist, lassen Sie mich ebenso antworten: Wir sind nicht nur alle unternetzt, wir haben uns über die letzten zehn Jahre auch sehenden Auges der letzten vernünftigen Rechensysteme beraubt, die da draußen zu finden waren. IBM, Siemens, Unisys und andere haben über Jahrzehnte Rechner geliefert, die stabil, sicher und schnell allen uns nur einfallenden Aufgaben mehr als gewachsen waren. Es gab keine Viren, keine Schadprogramme, und kein Regierungssystem musste runtergefahren werden, nur weil irgendwelche fernöstlichen Programmierer meinten, darin irgendwelche Geheimnisse suchen und finden zu müssen. Aber dann kamen Client/Server…

Mit Client/Server wurde den Geräten der Datendarstellung auch immer mehr die Datenverarbeitung anvertraut. Aber irgendwann merkte man, dass das Aufstellen eines Windows- oder Linux-Rechners (Server mag man diese Böcke ja wohl kaum nennen) allein nicht reicht, und versuchte wenigstens im Ansatz, die Prinzipien aus der Host-Welt auf diese Programmstarter zu projizieren. Virensuch- und -vernichtungsprogramme, Login-Verwaltungen und – ach ja, Ihre Frage – das Überstülpen einer halbwegs sicheren Hardware-Konfiguration (von Kollegen in Vorträgen gerne als »fehlertolerant« bezeichnet…). Und zu dieser gehört nun einmal das Einrichten eines – mindestens – 2+1-Clusters, das Aufstellen der Kisten mit einem gewissen Abstand voneinander und natürlich die Adaption dieser ganzen Fehlkonstruktion auf Netzwerk und Speicher.

Es gibt nichts – ich betone – NICHTS, was diese Steißgeburten der EDV besser, schneller oder billiger könnten als die oben genannten, Jahrzehnte bewährten Systeme, wenn man auf dieselbe Leistung kommen möchte. Und es komme mir keiner mit »ach da mache ich mich ja abhängig von einem Hersteller«. Was macht Ihr denn mit Eurem Open-Götzen, um den Ihr seit den Zeiten mit 65 Disketten mit einer Distribution (jaja, so alt seid Ihr nämlich auch schon, willkommen unter den Dinosauriern!) herumtanzt? Ihr macht Euch am Ende abhängig von der Entscheidung eines einzigen ebenfalls in die Jahre gekommenen Norwegers. Auch nicht besser, oder?

Wir sind also in der EDV nicht unternetzt, sondern eher zu sehr durchsetzt von tollen, bunten Mausschubser-Ideen, die über die letzten zwei Jahrzehnte die Kassen etlicher »Berater«-Firmen gefüllt und uns immer neue Generationen an krawattentragenden englischradebrechtenden Jungprogrammierern beschert haben, die ebenfalls bezahlt – und ertragen – werden wollen.

Ich muss also annehmen, dass Ihr CIO deutlich jünger als 40 Jahre ist und es deshalb einfach nicht besser weiß. Eventuell geht es Ihrem Unternehmen einfach zu gut, und dass Geld verbrannt sein will, oder aber dass Ihr Chef Sie nicht mag und Sie daher für etliche Monate unter den Füßen weghaben will.

Wie gesagt – ironisch/sarkastisch. :-)

Gruß
Doc Storage

Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de
Kommentare (3)
08.09.2015 - bernd.schaub

Ich würde mich nicht so weit aus dem Fenster legen. Er hat ja im Groben Recht, mich nervt dieser Windows/PC Wahnsinn auch. Nur ist Linux nicht generell jedes Unix, Torwalds nicht die einzig wichtige Person der EDV. Besser, schneller und billiger ... soll man darüber lachen oder nachdenken?

Ich habe gesehen, wie in 1994 eine IBM36 4 mal schneller auf einer Siemens RM400 in Sinix emuliert werden konnte. Musste selbst ansehen, wie mein ehemaliger Chef in 1998 sich noch eine BS2000 für über eine Million DM andrehen ließ. Ja, für Millionen wird man sogar angelächelt und betrogen usw.!

Das Problem was wir heute haben ist die Vernunft, aber heute siegt der Anwender sowie das Geld im positiven und negativen Sinn. Wir gehen derzeit eher aus Faulheit/Stursinn unter, weil man an der falschen Stelle zu viel zahlt und nicht dabei nachdenkt. Entscheider sind meist von Technik und Logik weit entfernt.

28.08.2015 - mress

Darf mich im Moment auch gerade mit OpenStack & Co. beschäftigen. In diesem Zusammenhang empfehle ich die Podiumsdiskussion des OpenStack Vancover Summits zum Thema Storage wo so schön von Donald McDouglas dargestellt wurde, dass sich die Community dort mit Problemen beschäftigt die die Storageindustrie schon vor 10 Jahren gelöst hatte....

Aber: Man sollte hier durchaus unterscheiden: Hadoop ist das Mittel der Wahl wenn es um Map Reduce Verfahren geht. OpenStack ist hochgradig interessant wenn man es mit external arrays oder filesystem based erasure coding koppelt, hoch motivierte Entwicklerteams hat, eigene Test, Referenz und Developmentplattformen davor setzt, mit Distributionen statt mit der native Opensource arbeitet, usw. - vorausgesetzt man benötigt auch hochgradige Automation eines Cloud Operating Systems.

Leider leben wir aktuell gerade ein einer Hochphase der FUD Area (FUD= Fear, Uncertainty and Doubt). Hersteller versprechen einem alles mögliche und Geiz ist Geil ohne auf die Folgen zu achten...

Bei der Gelegenheit fällt mir gerade ein: Vorletzte Woche kam es zu Datenverlust in einem belgischen RZ bei Google - hat aber wohl kaum einen interessiert - die Anwendungen sind inzwischen wohl doch alle Multicloud-fähig....

28.08.2015 - thomas.hertli

Kann die Meinung von Doc Storage nur teilen und finde die Antwort klasse, auch wenn ich diese auf einem "Bock" gelesen habe.


Mehr von Doc. tec. Storage 12.04.2019 Dateisysteme für den PByte-Bereich

Datenberge jenseits des PByte-Bereichs, Cloud-Anbindungen und Analytics-Szenarien stellen Dateiysteme vor neue Herausforderungen. Der Markt bietet einige Optionen wie GPFS, Gluster FS, OneFS oder QF2. Worauf gilt es zu achten?


05.04.2019 Neuordnung des Storage-Tiering

Nachdem sich Flash und SSDs mittlerweile auch in mehrere Leistungsklassen unterteilen, steht die Technik nicht mehr nur für Tier 0. 15k-HDDs scheinen vor dem Aus zu stehen. Gilt dies auch für alle SAS-Platten? Wie sieht die Neuordnung des Storage-Tiering aktuell aus?


15.03.2019 30 Jahre World Wide Web: Was gibt es zu feiern?

Das World Wide Web feiert seinen 30. Geburtstag. Ohne dem Internet ist unser heutiges Leben nicht mehr vorstellbar. Für Doc Storage hat das Netz aber auch genug Schattenseiten. An Regulierungen bzw. an das vom Erfinder erhoffte bessere Internet, glaubt er nicht.


08.03.2019 Datenanordnung im RAID 10 mit 8 Platten

In einem Server wird ein RAID 10 mit acht Festplatten unter Windows 2008 R2 betrieben. Nun ist ein Laufwerk ausgefallen. Da sich nur wenige Daten auf den HDDs befinden, besteht die Möglichkeit, dass die defekte Platte eventuell gar keine Daten enthält?


22.02.2019 Welcher RAID-Level für welche Anwendung?

Gibt es eigentliche eine Faustregel, welches RAID-Level für welche Anwendung am besten geeignet ist? Ich denke da zum Beispiel an Datenbanken mit sehr vielen Zugriffen bei relativ kleinen Datenmengen oder an Webserver und als Extrem auf der anderen Seite Bild-Datenbanken, Audio-Server beim Rundfunk, Video-Archive mit sehr hohen Datenvolumen.


15.02.2019 Was sagt DWPD über SSDs aus?

Im Zusammenhang mit (Enterprise-)SSDs wird oft die Qualitätsgröße DWPD (Drive Writes Per Day) genutzt. Meist wird die Angabe auch für einen Zeitraum von fünf Jahren spezifiziert. Was sagt DWPD genau aus und mit welcher Standard-Lebensdauer darf man rechnen?

powered by
Boston Server & Storage Solutions Datacore Software
Fujitsu Technology Solutions GmbH Seagate Technology
N-TEC GmbH FAST LTA AG