28.03.2014 (Doc Storage)
4.6 von 5, (18 Bewertungen)

Hat der Mainframe wirklich ausgedient?

Leserfrage: Der Streit um die Daseinsberechtigung des Mainframe kommt seit Jahren nicht zur Ruhe. Nach Cloud, Big Data und SDS stellt sich erneut die Frage, ob der Mainframe noch up-to-date ist und wo seine Funktionalitäten noch Vorteile gegenüber anderen Lösungen bieten. In welchen Unternehmen lohnt sich noch ein solches System und können dessen Funktionen nicht durch andere Lösungen ersetzt werden? Bei all den innovativen Angeboten, ist doch das Nischendasein des Mainframe vorprogrammiert, oder?

Antwort Doc Storage:

Die Frage ist nicht, ob der Mainframe »noch« das richtige Konzept ist, sondern ob alle neuen Lösungen, die samt und sonders aus dem Open-Systems-Bereich, also Windows, Linux oder Unix, stammen, »schon« für Massendatenverarbeitung geeignet sind. Das Problem für die Open-Systems-Fraktion stammt bereits aus der Anfangszeit der persönlichen Kleinrechner. Niemand hat diese jemals für Datenverarbeitung, sondern nur und ausschließlich für deren Erfassung und Anzeige entworfen.

Da vor sich allem die x86-Hardware seitdem einem jeglichen echten Fortschritt hemmenden Kompatibilitätsgebot unterwirft, hat sie keine echte Chance im Vergleich zu den nur für diesen einen Zweck entworfenen Großrechner. Man schaue sich nur einmal an, welche Fluchten an Hardware die offene Fraktion in die Rechenzentren stellen muss, um dieselbe Transaktionsleistung wie die angeblichen Dinosaurier zu erreichen.

Da ist auch das scheinheilige Vorrechnen von Energie- und Klimawerten nicht zielführend, genauso wie das Aufrechnen der Lizenz- und Wartungskosten. Betrachtet man ein reines Open-Systems-Rechenzentrum mit einem Großrechnerbetrieb derselben Transaktionsleistung, so liegen bei ersterem die Gesamtkosten, also inklusive Verwaltung, Personal, Energie, Klima und Standplatz immer höher als beim Mainframe. Ganz abgesehen vom unerhörten Aufwand, die offene und nicht für den 24x7x365,25-Betrieb geschaffenen Hardware ständig verfügbar zu halten. Cluster, Failover-Konzepte und geteilte Dateisysteme sind tatsächlich nicht weniger komplex als die im Großrechner bereits standardmäßig vorhandenen Schutzmaßnahmen. Im Gegenteil. Die angeblich so viel modernen Systeme bieten in den allermeisten Fällen lediglich Hochverfügbarkeit und keine Fehlertoleranz. Die wirklich wichtigen Installationen können sich keinen Betrieb von lediglich »Five Nines« leisten – bedeutet dies doch auch noch einen Ausfall von mehreren Minuten im Jahr.

Zwar ist es bisher wenigen Mainframe-Anwendern gelungen, sich von ihrem Legacy-System zu befreien. Allerdings zu welchem Preis, bei welchem Aufwand und über welchen Zeitraum? Wie viele Mannjahre, wenn nicht Mannjahrzehnte waren nötig, um den Großrechner abzulösen? All diese »Eh da«-Kosten werden gern ignoriert, wenn man sich die offene Welt schönrechnen will.

Vom Aspekt der Sicherheit wollen wir gar nicht reden – es ist bisher kein Fall bekannt, wo es einem Eindringling gelungen wäre, Sicherheitssysteme auf dem Großrechner zu umgehen oder zu überlisten. Der Mainframe ist keine Nische, sondern der Ursprung, die Inspiration sämtlicher heute als modern gepriesenen Lösungen im Open-Systems-Umfeld.

Virtualisierung für Hauptspeicher und Platten, ständige Verfügbarkeit, Mobilität von Rechenlasten über Hardware-Grenzen hinaus, all das und vieles mehr entstammen nicht den Federn moderner Ingenieure, sondern haben ihre Wurzeln in den sechziger und siebziger Jahren des letzten Jahrhunderts.

Der Mainframe ist die einzige Systemkategorie, die bereits vor vierzig Jahren für nichts anderes entworfen wurde und locker mit dem zurechtkam, womit heutige Offene Installationen schwer zu kämpfen haben: Big Data.

Gruß
Doc Storage

Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de
Kommentare (3)
25.04.2014 - Bombastus

Jetzt klopfen sich natürlich wieder die alten Knaben auf die Schulter "hab's ja immer gesagt". Eines muss man den Open Systems Ingenieuren zugestehen: Sie haben ungeheure Leistungszuwächse realisiert, die es ihnen heute ermöglichen mit sehr großem Aufwand und grenzenlosem Ressourcenverbrauch (Speicher, Compute, Netzwerk, Energie, Fläche, ...) an Mainframequalitäten heran zu robben. Jedoch bleiben die, im Artikel schön angedeuteten Architekturnacheile aufgrund von Kompatibilitätszwängen die Krux. Sehen wir es positiv - es ist gut für Wirtschaft und Arbeitsplätze ;-)
Detlef Lieb, STI-Consulting GmbH

31.03.2014 - Diskman

genau so ist es!

31.03.2014 - ServerNerver

Guter Beitrag! Open Systems hat dafür gesorgt, dass es keine grünen oder bernsteinfarbenen Zeichen auf einfachen Terminals mehr gibt OK.
Aber wenn der Aufwand den wir seit Jahren treiben um die offene Welt wieder einzufangen, stabil zu halten, sie zu Standardisieren usw. in effektivere Entwicklungen gegangen wäre, wo könnten wir dann stehen?


Mehr von Doc. tec. Storage 02.08.2019 Soft-/Hardware: Wie Daten richtig verschlüsseln?

Eine Software-Verschlüsselung soll weniger Probleme verursachen, als eine Hardware-Verschlüsselung. Stimmt das? Was passiert, wenn der gewählte Verschlüsselungsanbieter nicht mehr verfügbar ist, wie kommt man dann an seine Daten?


12.07.2019 Analysten-Prognosen sind verschwendete Lebenszeit

Diesmal nimmt sich Doc Storage die Trendvorhersagen von Marktforschern vor. Seiner Ansicht nach ist vieles nur ein Blick in die Glaskugel, anderes dagegen so offensichtlich, dass es keine weitere Betrachtung benötige. Er hält diese Art von Info für verschwendete Lebenszeit.


28.06.2019 DSGVO bleibt aus DV-Sicht ein unsägliches Thema

Kolumne: Unser Doc Storage ist kein Freund der DSGVO. Dies hat er in mehreren Kolumnen klar formuliert. In seinem zweiten Teil zu »Ein Jahr DSGVO« fasst er nochmal zusammen, warum die Thematik aus seiner DV-Sicht für Firmen unsäglich ist.


14.06.2019 Ein Jahr DSGVO: Aufwand unerträglich hoch

Kolumne: Zur Einführung der DSGVO hat Doc Storage mächtig Dampf abgelassen. Ein Jahr später lässt kaum ein Verband ein gutes Haar an der Datenschutz-Grundverordnung. Der Aufwand für Firmen und IT-Abteilungen sei unerträglich hoch.


07.06.2019 Welchen Flash für welche Anwendung?

Vor rund sechs Jahren schickten sich Flash-Speicher an, sich in Computern und Storage-Systemen zu etablieren. Damals galten die Lösungen aber noch als proprietär. Wo steht die Technik heute und welcher Flash eignet sich für welchen Einsatzzweck?


17.05.2019 NAS-Caching oder Tiering für VMs multiple Zugriffe?

In einer Lehrumgebung werden virtuellen Maschinen auf einem NAS mit 10GbE-Anbindung gespeichert. Nachdem eine Erweiterung mit NVMe-Flash ansteht, stellt sich die Frage, ob eine Caching- oder eine Tiering-Konfiguration die sinnvollere Wahl ist?

powered by
Boston Server & Storage Solutions Itiso GmbH
Fujitsu Technology Solutions GmbH Infortrend
N-TEC GmbH FAST LTA AG
Datacore Software Seagate Technology
Folgen Sie speicherguide.de auch auf unseren Social-Media-Kanälen
Folgen Sie und auf Facebook Folgen Sie und auf YouTube Folgen Sie und auf Twitter