28.03.2014 (Doc Storage)
4.6 von 5, (18 Bewertungen)

Hat der Mainframe wirklich ausgedient?

Leserfrage: Der Streit um die Daseinsberechtigung des Mainframe kommt seit Jahren nicht zur Ruhe. Nach Cloud, Big Data und SDS stellt sich erneut die Frage, ob der Mainframe noch up-to-date ist und wo seine Funktionalitäten noch Vorteile gegenüber anderen Lösungen bieten. In welchen Unternehmen lohnt sich noch ein solches System und können dessen Funktionen nicht durch andere Lösungen ersetzt werden? Bei all den innovativen Angeboten, ist doch das Nischendasein des Mainframe vorprogrammiert, oder?

Antwort Doc Storage:

Die Frage ist nicht, ob der Mainframe »noch« das richtige Konzept ist, sondern ob alle neuen Lösungen, die samt und sonders aus dem Open-Systems-Bereich, also Windows, Linux oder Unix, stammen, »schon« für Massendatenverarbeitung geeignet sind. Das Problem für die Open-Systems-Fraktion stammt bereits aus der Anfangszeit der persönlichen Kleinrechner. Niemand hat diese jemals für Datenverarbeitung, sondern nur und ausschließlich für deren Erfassung und Anzeige entworfen.

Da vor sich allem die x86-Hardware seitdem einem jeglichen echten Fortschritt hemmenden Kompatibilitätsgebot unterwirft, hat sie keine echte Chance im Vergleich zu den nur für diesen einen Zweck entworfenen Großrechner. Man schaue sich nur einmal an, welche Fluchten an Hardware die offene Fraktion in die Rechenzentren stellen muss, um dieselbe Transaktionsleistung wie die angeblichen Dinosaurier zu erreichen.

Da ist auch das scheinheilige Vorrechnen von Energie- und Klimawerten nicht zielführend, genauso wie das Aufrechnen der Lizenz- und Wartungskosten. Betrachtet man ein reines Open-Systems-Rechenzentrum mit einem Großrechnerbetrieb derselben Transaktionsleistung, so liegen bei ersterem die Gesamtkosten, also inklusive Verwaltung, Personal, Energie, Klima und Standplatz immer höher als beim Mainframe. Ganz abgesehen vom unerhörten Aufwand, die offene und nicht für den 24x7x365,25-Betrieb geschaffenen Hardware ständig verfügbar zu halten. Cluster, Failover-Konzepte und geteilte Dateisysteme sind tatsächlich nicht weniger komplex als die im Großrechner bereits standardmäßig vorhandenen Schutzmaßnahmen. Im Gegenteil. Die angeblich so viel modernen Systeme bieten in den allermeisten Fällen lediglich Hochverfügbarkeit und keine Fehlertoleranz. Die wirklich wichtigen Installationen können sich keinen Betrieb von lediglich »Five Nines« leisten – bedeutet dies doch auch noch einen Ausfall von mehreren Minuten im Jahr.

Zwar ist es bisher wenigen Mainframe-Anwendern gelungen, sich von ihrem Legacy-System zu befreien. Allerdings zu welchem Preis, bei welchem Aufwand und über welchen Zeitraum? Wie viele Mannjahre, wenn nicht Mannjahrzehnte waren nötig, um den Großrechner abzulösen? All diese »Eh da«-Kosten werden gern ignoriert, wenn man sich die offene Welt schönrechnen will.

Vom Aspekt der Sicherheit wollen wir gar nicht reden – es ist bisher kein Fall bekannt, wo es einem Eindringling gelungen wäre, Sicherheitssysteme auf dem Großrechner zu umgehen oder zu überlisten. Der Mainframe ist keine Nische, sondern der Ursprung, die Inspiration sämtlicher heute als modern gepriesenen Lösungen im Open-Systems-Umfeld.

Virtualisierung für Hauptspeicher und Platten, ständige Verfügbarkeit, Mobilität von Rechenlasten über Hardware-Grenzen hinaus, all das und vieles mehr entstammen nicht den Federn moderner Ingenieure, sondern haben ihre Wurzeln in den sechziger und siebziger Jahren des letzten Jahrhunderts.

Der Mainframe ist die einzige Systemkategorie, die bereits vor vierzig Jahren für nichts anderes entworfen wurde und locker mit dem zurechtkam, womit heutige Offene Installationen schwer zu kämpfen haben: Big Data.

Gruß
Doc Storage

Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de
Kommentare (3)
25.04.2014 - Bombastus

Jetzt klopfen sich natürlich wieder die alten Knaben auf die Schulter "hab's ja immer gesagt". Eines muss man den Open Systems Ingenieuren zugestehen: Sie haben ungeheure Leistungszuwächse realisiert, die es ihnen heute ermöglichen mit sehr großem Aufwand und grenzenlosem Ressourcenverbrauch (Speicher, Compute, Netzwerk, Energie, Fläche, ...) an Mainframequalitäten heran zu robben. Jedoch bleiben die, im Artikel schön angedeuteten Architekturnacheile aufgrund von Kompatibilitätszwängen die Krux. Sehen wir es positiv - es ist gut für Wirtschaft und Arbeitsplätze ;-)
Detlef Lieb, STI-Consulting GmbH

31.03.2014 - Diskman

genau so ist es!

31.03.2014 - ServerNerver

Guter Beitrag! Open Systems hat dafür gesorgt, dass es keine grünen oder bernsteinfarbenen Zeichen auf einfachen Terminals mehr gibt OK.
Aber wenn der Aufwand den wir seit Jahren treiben um die offene Welt wieder einzufangen, stabil zu halten, sie zu Standardisieren usw. in effektivere Entwicklungen gegangen wäre, wo könnten wir dann stehen?


Mehr von Doc. tec. Storage 15.02.2019 Was sagt DWPD über SSDs aus?

Im Zusammenhang mit (Enterprise-)SSDs wird oft die Qualitätsgröße DWPD (Drive Writes Per Day) genutzt. Meist wird die Angabe auch für einen Zeitraum von fünf Jahren spezifiziert. Was sagt DWPD genau aus und mit welcher Standard-Lebensdauer darf man rechnen?


08.02.2019 Unterschiede der Performance-States von SSDs

Gängige Meinung: SSDs sind schnell. In der Praxis gibt es aber dann doch einige Unterschiede, so sind vielen die verschiedenen Performance-States von SSDs und Flash-Speichern nicht bekannt: FOB, steady, burst and transition. Was steckt genau dahinter?


01.02.2019 BSI empfiehlt 200-km-Distanz – 200 km ERNSTHAFT!?

Kurz vor Weihnachten veröffentlichte das BSI neue Kriterien für georedundante RZs. Darin wird der bisher empfohlene Mindestabstand von fünf auf 200 Kilometer hochgesetzt. Aus Praxissicht laut Doc Storage »vollkommener Blödsinn«.


31.01.2019 Nervfaktor digitale Transformation – ein Rant

Die digitale Transformation bzw. Digitalisierung verfolgt uns nun schon geraume Zeit. Mit dem Faktor Mensch kommt nun nochmal ein neues Trendthema hinzu. Doc Storage hat hier eine klare Meinung: »alles Blödsinn – es nervt«. Nichts von dem, was heute diskutiert wird, ist neu und Menschen waren schon immer der Kern eines jeden Geschäftsbetriebs – selbst in der IT.


25.01.2019 SSDs: Was ist mit den Schreibzyklen, wenn SSDs fast voll sind?

Moderne SSDs sorgen mit der Wear-Leveling-Funktion automatisch dafür, dass möglichst gleichmäßig über alle Sektoren geschrieben wird. Wie verhält es sich mit den spezifizierten Schreibzyklen, wenn die SSD nahezu voll ist?


18.01.2019 Wie sinnvoll sind Benchmarks und Performance-Tests?

Welchen Stellenwert haben Benchmarks und Performance-Tests (z.B. SPC-1 und SPC-2) bei der Anschaffung von Storage-Systemen? Man hört ja, dass sich Firmen die Anforderungen nur noch vertraglich garantieren lassen. Ist das wirklich ein gangbarer Weg?

powered by
Boston Server & Storage Solutions Datacore Software
Fujitsu Technology Solutions GmbH Unitrends
N-TEC GmbH FAST LTA AG