30.10.2020 (Doc Storage)
3.8 von 5, (12 Bewertungen)

Was ist eine Shared Nothing-Architektur?

  • Inhalt dieses Artikels
  • Shared-Nothing-Architektur für unterbrechungsfreie Upgrades
  • Shared-Nothing als Verteidigungslinie gegen unerwünschte Ausfallzeiten

Leserfrage: Wie selbstverständlich wird seid kurzen von Shared-Nothing-Architekturen gesprochen. Ist mir bisher nicht untergekommen. Was soll man darunter verstehen? Müssen wir uns damit beschäftigen oder können wir das schnell auf dem Buzzword-Friedhof verschwinden lassen? 😉

Antwort Doc Storage:

Unter Shared-Nothing versteht man eine Architektur, die aus mehreren separaten Knoten besteht, welche gewisse Ressourcen nicht gemeinsam nutzen, vor allem Speicherplatz und Arbeitsspeicher. Diese Architektur kann um weitere Ressourcen wie zum Beispiel Datenbanken erweitert werden, die ebenfalls nicht gemeinsam genutzt werden.

Die Nutzung zahlreicher eigenständiger Knoten anstelle einer einzigen bestimmten Ressource bietet einige Vorteile. Einfache Skalierung, unterbrechungsfreie Upgrades, Beseitigung einzelner Fehlermöglichkeiten und Selbstheilungsfunktionen.

Die Skalierung wird wesentlich einfacher, wenn beispielsweise Festplatten nicht gemeinsam genutzt werden. Die Skalierung einer einzelnen freigegebenen Platte, um mehr Speicherplatz zu erhalten, kann zu Problemen führen, wenn der Vorgang nicht komplett abgeschlossen werden kann, da alle anderen Komponenten des Systems weiterhin auf dieses Volumen zugreifen müssen und wollen.

Existieren im Gegensatz dazu mehrere Knoten, die den Speicher nicht gemeinsam nutzen, wird die Skalierung des Speichers auf einer oder allen Komponenten mit weniger möglichen Problemen wesentlich einfacher. Sollte die Skalierung für eine der Komponenten fehlschlagen, arbeiten die anderen weiterhin normal.

Shared-Nothing-Architektur für unterbrechungsfreie Upgrades

Ähnlich wie bei den Skalierungsvorteilen kann eine Shared-Nothing-Architektur verwendet werden, um unterbrechungsfreie Upgrades für die laufenden Dienste durchzuführen. Anstatt einer gewissen Ausfallzeit durch die Aktualisierung der Infrastruktur mit gemeinsam genutzten Ressourcen, lässt sich jeweils nur ein Knoten separat aktualisieren. Die Redundanz in anderen Knoten ist weiterhin verfügbar, so dass nicht das gesamte System für ein Upgrade heruntergefahren werden muss.

Soll beispielsweise eine Anwendung aktualisiert werden, kann dies auf jedem Knoten separat ausgeführt geschehen, während die Anwendung auf den anderen Knoten weiterhin produktiv läuft. Diese Knoten nutzen gemeinsam weder Speicherplatz noch Hauptspeicher. Redundante Kopien befinden sich stattdessen auf separaten Datenträgern der Anwendung. Diese lassen sich jeweils einzelnen nacheinander aktualisieren, ohne das gesamte System herunterfahren zu müssen. Sollte eines der Upgrades fehlschlagen, muss nur ein einzelner Knoten und nicht das gesamte System heruntergefahren werden. Hierdurch sollen sich Upgrades wesentlich stressfreier durchführen lassen.

Bei gemeinsam genutzten Systemen kann ein einzelner Fehler eine Site oder Anwendung vollständig ausschalten. Wie schon vorher erwähnt, kann die Möglichkeit, separate Systeme auf redundanten Knoten mit Redundanz zu betreiben, die Produktion vereinfachen und zur gleichen Zeit die Katastrophe eines einzelnen Fehlers vermeiden, der zu ungeplanten Ausfällen führt.

Der Ausfall einer gemeinsam genutzten Festplatte kann sich in Standardsystemen katastrophal auswirken. Da es sich um einen einzelnen Fehlerpunkt handelt, kann in diesem Moment keiner der anderen Dienste ordnungsgemäß ausgeführt werden, bis die ausgefallene Festplatte ausgetauscht und wiederhergestellt ist. Wenn kein aktuelles Backup vorhanden ist, kann es darüber hinaus zu einem Datenverlust kommen, der klein oder aber sehr fatal sein kann.

Shared-Nothing als Verteidigungslinie gegen unerwünschte Ausfallzeiten

In der Tat ist es viel besser, Redundanz durch separate Knoten herzustellen und sicherzustellen, dass die anderen Komponenten nicht aufgrund eines Festplattenfehlers auf einem einzelnen Knoten ausfallen.

Zusammen mit den genannten Vorteilen ermöglicht die Shared-Nothing-Architektur eine gewisse Selbstheilung, die eine weitere Verteidigungslinie gegen unerwünschte Ausfallzeiten darstellen kann. Werden beispielsweise redundante Kopien von Daten oder Datenbanken auf verschiedenen Datenträgern gehalten, kann eine Platte, die Daten verliert, diese wiederherstellen, wenn die Redundanzen synchronisiert werden.

Bei einzelnen gemeinsam genutzten Platten würden Daten verloren gehen und es unvermeidlich zu Ausfallzeiten kommen. Eine Shared-Nothing-Architektur kann möglicherweise vor einer großen Anzahl von Ausfällen bewahren, die auftreten könnten, wenn die genannten Komponenten gemeinsam genutzt werden. Obwohl die ursprüngliche Idee vor mehr als drei Jahrzehnten eingeführt wurde, macht die heutige Technologie diese Architektur zu einer viel praktikableren Option.

Gruß
Doc Storage

Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de
Kommentare (2)
31.10.2020 - mress

Eigentlich kommt der Begriff aus der Urzeit der Prozessorarchitektur. In den frühen 80er Jahren haben Hersteller wie Tandem shared nothing Architekturen gebaut. Ich kann Doc nur bestätigen: Diese Architekturen haben im SPeicherbereich eindeutig ihre Vorteile.

Leider wird jedoch im Kostenvergleich mit herkömmlichen Architekturen oft vergessen, das zusätzliche Aufwände in Form von Load Balancern, Metaservern, Nameservern und Low Latency Interconnects erforderlich sind. Wenn ausfallende Platten über die Frontendnetzwerke restauriert werden führt dies zu Performanceeinbrüchen. Eine ausfallende Einzelkomponente (Server mit Festplatten) benötigt oftmals viele Tage um automatisch über Erasure Coding auf einen (oft auch nicht berücksichtigten) Ersatzserver restauriert zu werden. Positive Effekte vor allem bei SN-Clustern mit Kapazitäten ab ca. 100 PB und Objektspeicher. Stateful prot. sind req. wie pnfsv4.2.

30.10.2020 - jan

Zusätzliche (Hardware/VM) Shared-Nothing Server nutze ich seit 2001 um (am Hersteller vorbei...) 2-Tier Client/Server Systeme verfügbarer zu machen. In fast 20 Jahren hatte diese 24/7 Anwendung 3d Ausfall.
Man kann auch "batch-Loadbalancing" damit machen in dem man per round Robin Verfahren aus einem Batch die Clients jeweils auf den nächsten Server verbindet....
Lauter primitive, kreative Lösungen, die "nur" Adminzeit kosten, die sie aber nach spätestens 2 Jahren, wegen ausbleibender Katastrophen wieder rein holen.
Idealerweise vergisst man auf der Serverseite "Windows" und nimmt ein stabiles OS, damit man solche Traumzeiten erzielen kann. (Allein die Reboots (aufgrund des Registry Designs) von Windows dauern länger als alle Migrationsdowntimes und(Netzwerk)Fehler zusammen.)


Mehr von Doc. tec. Storage 10.09.2021 Wie sinnvoll ist eine Backup-Appliance mit NVMe?

Backup und Recovery können gar nicht schnell genug sein. Mittlerweile gibt es auch die ersten NVMe-Backup-Appliances. Doch, kommen die Vorzüge von NVMe in einer Backup-Appliance überhaupt zum Tragen? Zumal NVMe ja doch noch teurer ist, als Standard-SSDs.


16.07.2021 Hilft Immutable-Backup/-Storage gegen Ransomware?

Nach den letzten Cyberangriffen wird immer wieder Immutable-Backup bzw. Immutable-Storage als die Lösung gegen Ransomware genannt. Ist das wirklich der neue Heilsbringer, wie es beispielsweise Cohesity propagiert? Oder gibt es auch kritische Stimmen?


18.06.2021 Zuverlässigkeit von Bändern und Tape-Librarys

Hersteller und Anbieter sprechen von einer Tape-Renaissance, von einer ausgereiften Technologie und dergleichen. Wie ist es bei Tape-Librarys mit der Mechanik? Früher gab es da oft oder regelmäßig Probleme. Auch haben sich Tapes immer wieder nicht auslesen lassen. Wie sind die Erfahrungen mit der Zuverlässigkeit von Bändern heute?


28.05.2021 Hardware- vs. Software-RAID: Was sind die Unterschiede?

In einer der letzten Storage-Veranstaltungen ging es darum, dass es keinen Sinn mehr mache auf Hardware-RAID zu setzen. Gehört dem Software-RAID wirklich die Zukunft? Welches sind die jeweiligen Vor- und Nachteile und auf was kommt es an?


07.05.2021 Was versteht man unter Dual-Layer Erasure-Coding?

Das Erasure-Coding ist bekannt und wurde auch schon mehrmals beschrieben. Nun sind wir zuletzt mehrfach auf den Begriff Dual-Layer Erasure-Coding gestoßen. Was verbirgt sich dahinter bzw. was sollte man dazu wissen?


19.03.2021 Backup-Konzept: Was sind die Türme von Hanoi?

Die Türme von Hanoi sind eine eher selten eingesetzte Datensicherungsstrategie. Was sind die Vorteile und warum hat sich das Konzept nicht durchgesetzt? Doc Storage erklärt den komplexen Backup-Plan und warum es gar nicht abwegig ist, darüber nachzudenken.

powered by
N-TEC GmbH FAST LTA
Quantum Cloudian
Overland-Tandberg
Folgen Sie speicherguide.de auch auf unseren Social-Media-Kanälen
Folgen Sie uns auf Facebook Folgen Sie uns auf Pinterest Folgen Sie uns auf YouTube
Folgen Sie uns auf Twitter Folgen Sie uns auf Linkedin speicherguide.de-News per RSS-Feed