28.08.2015 (Doc Storage)
4.9 von 5, (8 Bewertungen)

Brauchen wir die ganzen Cluster?

Leserfrage: Mein CIO meinte, ich, als geneigter Administrator, müsste mich mehr mit Clustern beschäftigen, sei es Openstack, Ceph, Hadoop, Kubernetes und so weiter. Aber je länger ich mich nun damit beschäftige, desto mehr bin ich zu der Ansicht gekommen, dass wir alle unternetzt sind. Teilen Sie meine ironisch/sarkastische Ansicht?

Antwort Doc Storage:

Da Sie schon bemerken, dass Ihre Frage ironisch und sarkastisch ausgelegt ist, lassen Sie mich ebenso antworten: Wir sind nicht nur alle unternetzt, wir haben uns über die letzten zehn Jahre auch sehenden Auges der letzten vernünftigen Rechensysteme beraubt, die da draußen zu finden waren. IBM, Siemens, Unisys und andere haben über Jahrzehnte Rechner geliefert, die stabil, sicher und schnell allen uns nur einfallenden Aufgaben mehr als gewachsen waren. Es gab keine Viren, keine Schadprogramme, und kein Regierungssystem musste runtergefahren werden, nur weil irgendwelche fernöstlichen Programmierer meinten, darin irgendwelche Geheimnisse suchen und finden zu müssen. Aber dann kamen Client/Server…

Mit Client/Server wurde den Geräten der Datendarstellung auch immer mehr die Datenverarbeitung anvertraut. Aber irgendwann merkte man, dass das Aufstellen eines Windows- oder Linux-Rechners (Server mag man diese Böcke ja wohl kaum nennen) allein nicht reicht, und versuchte wenigstens im Ansatz, die Prinzipien aus der Host-Welt auf diese Programmstarter zu projizieren. Virensuch- und -vernichtungsprogramme, Login-Verwaltungen und – ach ja, Ihre Frage – das Überstülpen einer halbwegs sicheren Hardware-Konfiguration (von Kollegen in Vorträgen gerne als »fehlertolerant« bezeichnet…). Und zu dieser gehört nun einmal das Einrichten eines – mindestens – 2+1-Clusters, das Aufstellen der Kisten mit einem gewissen Abstand voneinander und natürlich die Adaption dieser ganzen Fehlkonstruktion auf Netzwerk und Speicher.

Es gibt nichts – ich betone – NICHTS, was diese Steißgeburten der EDV besser, schneller oder billiger könnten als die oben genannten, Jahrzehnte bewährten Systeme, wenn man auf dieselbe Leistung kommen möchte. Und es komme mir keiner mit »ach da mache ich mich ja abhängig von einem Hersteller«. Was macht Ihr denn mit Eurem Open-Götzen, um den Ihr seit den Zeiten mit 65 Disketten mit einer Distribution (jaja, so alt seid Ihr nämlich auch schon, willkommen unter den Dinosauriern!) herumtanzt? Ihr macht Euch am Ende abhängig von der Entscheidung eines einzigen ebenfalls in die Jahre gekommenen Norwegers. Auch nicht besser, oder?

Wir sind also in der EDV nicht unternetzt, sondern eher zu sehr durchsetzt von tollen, bunten Mausschubser-Ideen, die über die letzten zwei Jahrzehnte die Kassen etlicher »Berater«-Firmen gefüllt und uns immer neue Generationen an krawattentragenden englischradebrechtenden Jungprogrammierern beschert haben, die ebenfalls bezahlt – und ertragen – werden wollen.

Ich muss also annehmen, dass Ihr CIO deutlich jünger als 40 Jahre ist und es deshalb einfach nicht besser weiß. Eventuell geht es Ihrem Unternehmen einfach zu gut, und dass Geld verbrannt sein will, oder aber dass Ihr Chef Sie nicht mag und Sie daher für etliche Monate unter den Füßen weghaben will.

Wie gesagt – ironisch/sarkastisch. :-)

Gruß
Doc Storage

Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de
Kommentare (3)
08.09.2015 - bernd.schaub

Ich würde mich nicht so weit aus dem Fenster legen. Er hat ja im Groben Recht, mich nervt dieser Windows/PC Wahnsinn auch. Nur ist Linux nicht generell jedes Unix, Torwalds nicht die einzig wichtige Person der EDV. Besser, schneller und billiger ... soll man darüber lachen oder nachdenken?

Ich habe gesehen, wie in 1994 eine IBM36 4 mal schneller auf einer Siemens RM400 in Sinix emuliert werden konnte. Musste selbst ansehen, wie mein ehemaliger Chef in 1998 sich noch eine BS2000 für über eine Million DM andrehen ließ. Ja, für Millionen wird man sogar angelächelt und betrogen usw.!

Das Problem was wir heute haben ist die Vernunft, aber heute siegt der Anwender sowie das Geld im positiven und negativen Sinn. Wir gehen derzeit eher aus Faulheit/Stursinn unter, weil man an der falschen Stelle zu viel zahlt und nicht dabei nachdenkt. Entscheider sind meist von Technik und Logik weit entfernt.

28.08.2015 - mress

Darf mich im Moment auch gerade mit OpenStack & Co. beschäftigen. In diesem Zusammenhang empfehle ich die Podiumsdiskussion des OpenStack Vancover Summits zum Thema Storage wo so schön von Donald McDouglas dargestellt wurde, dass sich die Community dort mit Problemen beschäftigt die die Storageindustrie schon vor 10 Jahren gelöst hatte....

Aber: Man sollte hier durchaus unterscheiden: Hadoop ist das Mittel der Wahl wenn es um Map Reduce Verfahren geht. OpenStack ist hochgradig interessant wenn man es mit external arrays oder filesystem based erasure coding koppelt, hoch motivierte Entwicklerteams hat, eigene Test, Referenz und Developmentplattformen davor setzt, mit Distributionen statt mit der native Opensource arbeitet, usw. - vorausgesetzt man benötigt auch hochgradige Automation eines Cloud Operating Systems.

Leider leben wir aktuell gerade ein einer Hochphase der FUD Area (FUD= Fear, Uncertainty and Doubt). Hersteller versprechen einem alles mögliche und Geiz ist Geil ohne auf die Folgen zu achten...

Bei der Gelegenheit fällt mir gerade ein: Vorletzte Woche kam es zu Datenverlust in einem belgischen RZ bei Google - hat aber wohl kaum einen interessiert - die Anwendungen sind inzwischen wohl doch alle Multicloud-fähig....

28.08.2015 - thomas.hertli

Kann die Meinung von Doc Storage nur teilen und finde die Antwort klasse, auch wenn ich diese auf einem "Bock" gelesen habe.


Mehr von Doc. tec. Storage 15.02.2019 Was sagt DWPD über SSDs aus?

Im Zusammenhang mit (Enterprise-)SSDs wird oft die Qualitätsgröße DWPD (Drive Writes Per Day) genutzt. Meist wird die Angabe auch für einen Zeitraum von fünf Jahren spezifiziert. Was sagt DWPD genau aus und mit welcher Standard-Lebensdauer darf man rechnen?


08.02.2019 Unterschiede der Performance-States von SSDs

Gängige Meinung: SSDs sind schnell. In der Praxis gibt es aber dann doch einige Unterschiede, so sind vielen die verschiedenen Performance-States von SSDs und Flash-Speichern nicht bekannt: FOB, steady, burst and transition. Was steckt genau dahinter?


01.02.2019 BSI empfiehlt 200-km-Distanz – 200 km ERNSTHAFT!?

Kurz vor Weihnachten veröffentlichte das BSI neue Kriterien für georedundante RZs. Darin wird der bisher empfohlene Mindestabstand von fünf auf 200 Kilometer hochgesetzt. Aus Praxissicht laut Doc Storage »vollkommener Blödsinn«.


31.01.2019 Nervfaktor digitale Transformation – ein Rant

Die digitale Transformation bzw. Digitalisierung verfolgt uns nun schon geraume Zeit. Mit dem Faktor Mensch kommt nun nochmal ein neues Trendthema hinzu. Doc Storage hat hier eine klare Meinung: »alles Blödsinn – es nervt«. Nichts von dem, was heute diskutiert wird, ist neu und Menschen waren schon immer der Kern eines jeden Geschäftsbetriebs – selbst in der IT.


25.01.2019 SSDs: Was ist mit den Schreibzyklen, wenn SSDs fast voll sind?

Moderne SSDs sorgen mit der Wear-Leveling-Funktion automatisch dafür, dass möglichst gleichmäßig über alle Sektoren geschrieben wird. Wie verhält es sich mit den spezifizierten Schreibzyklen, wenn die SSD nahezu voll ist?


18.01.2019 Wie sinnvoll sind Benchmarks und Performance-Tests?

Welchen Stellenwert haben Benchmarks und Performance-Tests (z.B. SPC-1 und SPC-2) bei der Anschaffung von Storage-Systemen? Man hört ja, dass sich Firmen die Anforderungen nur noch vertraglich garantieren lassen. Ist das wirklich ein gangbarer Weg?

powered by
Boston Server & Storage Solutions Datacore Software
Fujitsu Technology Solutions GmbH Unitrends
N-TEC GmbH FAST LTA AG