28.03.2014 (Doc Storage)
4.6 von 5, (18 Bewertungen)

Hat der Mainframe wirklich ausgedient?

Leserfrage: Der Streit um die Daseinsberechtigung des Mainframe kommt seit Jahren nicht zur Ruhe. Nach Cloud, Big Data und SDS stellt sich erneut die Frage, ob der Mainframe noch up-to-date ist und wo seine Funktionalitäten noch Vorteile gegenüber anderen Lösungen bieten. In welchen Unternehmen lohnt sich noch ein solches System und können dessen Funktionen nicht durch andere Lösungen ersetzt werden? Bei all den innovativen Angeboten, ist doch das Nischendasein des Mainframe vorprogrammiert, oder?

Antwort Doc Storage:

Die Frage ist nicht, ob der Mainframe »noch« das richtige Konzept ist, sondern ob alle neuen Lösungen, die samt und sonders aus dem Open-Systems-Bereich, also Windows, Linux oder Unix, stammen, »schon« für Massendatenverarbeitung geeignet sind. Das Problem für die Open-Systems-Fraktion stammt bereits aus der Anfangszeit der persönlichen Kleinrechner. Niemand hat diese jemals für Datenverarbeitung, sondern nur und ausschließlich für deren Erfassung und Anzeige entworfen.

Da vor sich allem die x86-Hardware seitdem einem jeglichen echten Fortschritt hemmenden Kompatibilitätsgebot unterwirft, hat sie keine echte Chance im Vergleich zu den nur für diesen einen Zweck entworfenen Großrechner. Man schaue sich nur einmal an, welche Fluchten an Hardware die offene Fraktion in die Rechenzentren stellen muss, um dieselbe Transaktionsleistung wie die angeblichen Dinosaurier zu erreichen.

Da ist auch das scheinheilige Vorrechnen von Energie- und Klimawerten nicht zielführend, genauso wie das Aufrechnen der Lizenz- und Wartungskosten. Betrachtet man ein reines Open-Systems-Rechenzentrum mit einem Großrechnerbetrieb derselben Transaktionsleistung, so liegen bei ersterem die Gesamtkosten, also inklusive Verwaltung, Personal, Energie, Klima und Standplatz immer höher als beim Mainframe. Ganz abgesehen vom unerhörten Aufwand, die offene und nicht für den 24x7x365,25-Betrieb geschaffenen Hardware ständig verfügbar zu halten. Cluster, Failover-Konzepte und geteilte Dateisysteme sind tatsächlich nicht weniger komplex als die im Großrechner bereits standardmäßig vorhandenen Schutzmaßnahmen. Im Gegenteil. Die angeblich so viel modernen Systeme bieten in den allermeisten Fällen lediglich Hochverfügbarkeit und keine Fehlertoleranz. Die wirklich wichtigen Installationen können sich keinen Betrieb von lediglich »Five Nines« leisten – bedeutet dies doch auch noch einen Ausfall von mehreren Minuten im Jahr.

Zwar ist es bisher wenigen Mainframe-Anwendern gelungen, sich von ihrem Legacy-System zu befreien. Allerdings zu welchem Preis, bei welchem Aufwand und über welchen Zeitraum? Wie viele Mannjahre, wenn nicht Mannjahrzehnte waren nötig, um den Großrechner abzulösen? All diese »Eh da«-Kosten werden gern ignoriert, wenn man sich die offene Welt schönrechnen will.

Vom Aspekt der Sicherheit wollen wir gar nicht reden – es ist bisher kein Fall bekannt, wo es einem Eindringling gelungen wäre, Sicherheitssysteme auf dem Großrechner zu umgehen oder zu überlisten. Der Mainframe ist keine Nische, sondern der Ursprung, die Inspiration sämtlicher heute als modern gepriesenen Lösungen im Open-Systems-Umfeld.

Virtualisierung für Hauptspeicher und Platten, ständige Verfügbarkeit, Mobilität von Rechenlasten über Hardware-Grenzen hinaus, all das und vieles mehr entstammen nicht den Federn moderner Ingenieure, sondern haben ihre Wurzeln in den sechziger und siebziger Jahren des letzten Jahrhunderts.

Der Mainframe ist die einzige Systemkategorie, die bereits vor vierzig Jahren für nichts anderes entworfen wurde und locker mit dem zurechtkam, womit heutige Offene Installationen schwer zu kämpfen haben: Big Data.

Gruß
Doc Storage

Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de
Kommentare (3)
25.04.2014 - Bombastus

Jetzt klopfen sich natürlich wieder die alten Knaben auf die Schulter "hab's ja immer gesagt". Eines muss man den Open Systems Ingenieuren zugestehen: Sie haben ungeheure Leistungszuwächse realisiert, die es ihnen heute ermöglichen mit sehr großem Aufwand und grenzenlosem Ressourcenverbrauch (Speicher, Compute, Netzwerk, Energie, Fläche, ...) an Mainframequalitäten heran zu robben. Jedoch bleiben die, im Artikel schön angedeuteten Architekturnacheile aufgrund von Kompatibilitätszwängen die Krux. Sehen wir es positiv - es ist gut für Wirtschaft und Arbeitsplätze ;-)
Detlef Lieb, STI-Consulting GmbH

31.03.2014 - Diskman

genau so ist es!

31.03.2014 - ServerNerver

Guter Beitrag! Open Systems hat dafür gesorgt, dass es keine grünen oder bernsteinfarbenen Zeichen auf einfachen Terminals mehr gibt OK.
Aber wenn der Aufwand den wir seit Jahren treiben um die offene Welt wieder einzufangen, stabil zu halten, sie zu Standardisieren usw. in effektivere Entwicklungen gegangen wäre, wo könnten wir dann stehen?


Mehr von Doc. tec. Storage 12.04.2019 Dateisysteme für den PByte-Bereich

Datenberge jenseits des PByte-Bereichs, Cloud-Anbindungen und Analytics-Szenarien stellen Dateiysteme vor neue Herausforderungen. Der Markt bietet einige Optionen wie GPFS, Gluster FS, OneFS oder QF2. Worauf gilt es zu achten?


05.04.2019 Neuordnung des Storage-Tiering

Nachdem sich Flash und SSDs mittlerweile auch in mehrere Leistungsklassen unterteilen, steht die Technik nicht mehr nur für Tier 0. 15k-HDDs scheinen vor dem Aus zu stehen. Gilt dies auch für alle SAS-Platten? Wie sieht die Neuordnung des Storage-Tiering aktuell aus?


15.03.2019 30 Jahre World Wide Web: Was gibt es zu feiern?

Das World Wide Web feiert seinen 30. Geburtstag. Ohne dem Internet ist unser heutiges Leben nicht mehr vorstellbar. Für Doc Storage hat das Netz aber auch genug Schattenseiten. An Regulierungen bzw. an das vom Erfinder erhoffte bessere Internet, glaubt er nicht.


08.03.2019 Datenanordnung im RAID 10 mit 8 Platten

In einem Server wird ein RAID 10 mit acht Festplatten unter Windows 2008 R2 betrieben. Nun ist ein Laufwerk ausgefallen. Da sich nur wenige Daten auf den HDDs befinden, besteht die Möglichkeit, dass die defekte Platte eventuell gar keine Daten enthält?


22.02.2019 Welcher RAID-Level für welche Anwendung?

Gibt es eigentliche eine Faustregel, welches RAID-Level für welche Anwendung am besten geeignet ist? Ich denke da zum Beispiel an Datenbanken mit sehr vielen Zugriffen bei relativ kleinen Datenmengen oder an Webserver und als Extrem auf der anderen Seite Bild-Datenbanken, Audio-Server beim Rundfunk, Video-Archive mit sehr hohen Datenvolumen.


15.02.2019 Was sagt DWPD über SSDs aus?

Im Zusammenhang mit (Enterprise-)SSDs wird oft die Qualitätsgröße DWPD (Drive Writes Per Day) genutzt. Meist wird die Angabe auch für einen Zeitraum von fünf Jahren spezifiziert. Was sagt DWPD genau aus und mit welcher Standard-Lebensdauer darf man rechnen?

powered by
Boston Server & Storage Solutions Datacore Software
Fujitsu Technology Solutions GmbH Seagate Technology
N-TEC GmbH FAST LTA AG