10.04.2015 (Doc Storage)
3.7 von 5, (6 Bewertungen)

Scale-up oder Scale-out?

Leserfrage: Bei NAS-Systemen oder anderem Netzwerkspeicher gibt es zwei Skalierungsmöglichkeiten: Scale-up und Scale-out. Wie genau funktionieren diese Methoden und welche eignet sich für welche Umgebungen? Gibt es Lösungen, die sich in beide Richtungen erweitern lassen?

Antwort Doc Storage:

Zunächst einmal gilt es die beiden Begriffe zu klären. Bei Scale-Up handelt es sich, wie der Name schon impliziert, um die Möglichkeit, das System vertikal zu skalieren. Dies geschieht durch das Hinzufügen weiterer Ressourcen zum Basissystem, also beispielsweise von mehr Hauptspeicher, stärkerer oder mehr Prozessoren, schnellerer oder zusätzlicher Netzwerkschnittstellen. Dies hat den Vorteil, dass eine existierende Installation leistungsgesteigert werden kann, ohne die installierte Firmware anpassen zu müssen. Eine natürliche Grenze wird Scale-Up-Systemen dadurch gesetzt, dass sich irgendwann kein Hauptspeicher, keine CPU oder andere Erweiterungen mehr sinnvoll hinzufügen lassen. Das heißt, man verfügt bereits über das leistungsstärkste Array am Markt. Dann muss zur weiteren Größen- oder Leistungssteigerung ein weiteres System angeschafft werden.

Scale-Out, also die horizontale Skalierung, versucht mit diesem Problem dadurch fertigzuwerden, dass sich (theoretisch) eine beliebige Anzahl an fest konfektionierten Hardware-Komponenten, also meist Knoten mit einer bestimmten Anzahl an Prozessoren, Speicher und Schnittstellen, miteinander koppeln und als ein System betreiben lassen. Dieser Herangehensweise sind allerdings durch die Fähigkeit der Firmware, Prozesse parallel abzuarbeiten und sinnvoll über alle Ressourcen zu verteilen, Grenzen gesetzt.

Aber nicht nur die zentralen Komponenten von Speichersystemen sind in diesen verschiedenen Weisen skalierbar, sondern darüber hinaus auch die Speicherkapazität selbst über die Art und Anzahl der Speichermedien. Welche Methode sich für welche Umgebungen eignet, diese Frage kann man nur mit der uralten Informatiker-Standardantwort kontern: Das kommt drauf an.

Speicher- und Leistungsbedarf kennen

Vor dem Erwerb eines neuen Systems sollte nicht nur geklärt werden, welcher Speicher- und Leistungsbedarf zurzeit, sondern auch, welcher zum Ablauf der Nutzungsperiode abgedeckt werden muss. Daraus ergibt sich die Kennzahl für Art und Anzahl der Laufwerke, der Netzwerkschnittstellen, der Backend-Kanäle, der Prozessoren und des Hauptspeichers. Wollen Sie vergleichsweise klein und simpel starten und dann übermäßig groß wachsen, empfiehlt sich auf jeden Fall das Scale-Out-Verfahren, da dort mit jeder Erweiterung einer Komponente auch fast automatisch die anderen vermehrt werden. Somit können lassen sich unangenehme Leistungsdefizite mitten in der Nutzungsperiode relativ zuverlässig vermeiden. Allerdings müssen hier immer mehr Stellfläche und Bodenbelastung durch fix konfigurierte Knoten berücksichtigt werden, und die Erweiterung geschieht jedes Mal nicht nur um die Komponente, die gerade benötigt wird, sondern um eine feste Anzahl aller Komponenten.

Will man flexibler bleiben und selbst mitbestimmen, ob das Array einmal um Backend-, dann wieder um Prozessor- und schließlich um Netzwerkleistung wachsen soll, muss man sich einer Scale-Up-Architektur zuwenden. Diese Systeme sind bereits zu Anfang relativ groß, lassen sich dann allerdings je nach Bedarf durch das Hinzufügen bestimmter Bauteile tunen.

Natürlich gibt es Hybrid-Lösungen, die sich sowohl innerhalb der einzelnen Knoten als auch um ganze vorkonfektionierte Einheiten erweitern lassen. Allerdings haben diese wiederum den Nachteil, dass ihr Microcode weder auf das eine noch auf das andere wirklich optimiert ist und niemals die im Vergleich zu den spezialisierten Systemen optimale Leistung bringen kann. Es empfiehlt sich also, im Vorfeld die eigenen Kennzahlen (Speicherbedarf, Durchsatz, I/O-Leistung jetzt und später) zu ermitteln und auf Basis der Kenntnis der eingehenden Lösungen eine für diese Ansprüche passende Lösung zu finden.

Aber das ist auch nichts neues, das ist RZ-Einmaleins. Nach der Migration ist vor der Migration!

Gruß
Doc Storage

Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de
Kommentare (1)
13.04.2015 - mress

Sind Scale Out Architekturen nicht auch an bestimmte Protokolle gebunden? So kann ein Object Store sehr hoch horizontal skalieren während für ein pNFS Cluster bei den meisten Herstellern schon nach wenigen Knoten Schluss ist. Für SMB gilt schliesslich das schon SMB V3 Funktionen erforderlich sind? Auch bei den Kosten sollte es starke Unterschiede geben da horizontale Strukturen nur in den seltensten Fällen mit effektiven Erasure Code Verfahren daherkommen (mir fallen aktuell nur 2 Fälle ein :-( ) und damit mit effektivem horizontalen RAID6 ähnlichen Kostenstrukturen?


Mehr von Doc. tec. Storage 15.02.2019 Was sagt DWPD über SSDs aus?

Im Zusammenhang mit (Enterprise-)SSDs wird oft die Qualitätsgröße DWPD (Drive Writes Per Day) genutzt. Meist wird die Angabe auch für einen Zeitraum von fünf Jahren spezifiziert. Was sagt DWPD genau aus und mit welcher Standard-Lebensdauer darf man rechnen?


08.02.2019 Unterschiede der Performance-States von SSDs

Gängige Meinung: SSDs sind schnell. In der Praxis gibt es aber dann doch einige Unterschiede, so sind vielen die verschiedenen Performance-States von SSDs und Flash-Speichern nicht bekannt: FOB, steady, burst and transition. Was steckt genau dahinter?


01.02.2019 BSI empfiehlt 200-km-Distanz – 200 km ERNSTHAFT!?

Kurz vor Weihnachten veröffentlichte das BSI neue Kriterien für georedundante RZs. Darin wird der bisher empfohlene Mindestabstand von fünf auf 200 Kilometer hochgesetzt. Aus Praxissicht laut Doc Storage »vollkommener Blödsinn«.


31.01.2019 Nervfaktor digitale Transformation – ein Rant

Die digitale Transformation bzw. Digitalisierung verfolgt uns nun schon geraume Zeit. Mit dem Faktor Mensch kommt nun nochmal ein neues Trendthema hinzu. Doc Storage hat hier eine klare Meinung: »alles Blödsinn – es nervt«. Nichts von dem, was heute diskutiert wird, ist neu und Menschen waren schon immer der Kern eines jeden Geschäftsbetriebs – selbst in der IT.


25.01.2019 SSDs: Was ist mit den Schreibzyklen, wenn SSDs fast voll sind?

Moderne SSDs sorgen mit der Wear-Leveling-Funktion automatisch dafür, dass möglichst gleichmäßig über alle Sektoren geschrieben wird. Wie verhält es sich mit den spezifizierten Schreibzyklen, wenn die SSD nahezu voll ist?


18.01.2019 Wie sinnvoll sind Benchmarks und Performance-Tests?

Welchen Stellenwert haben Benchmarks und Performance-Tests (z.B. SPC-1 und SPC-2) bei der Anschaffung von Storage-Systemen? Man hört ja, dass sich Firmen die Anforderungen nur noch vertraglich garantieren lassen. Ist das wirklich ein gangbarer Weg?

powered by
Boston Server & Storage Solutions Datacore Software
Fujitsu Technology Solutions GmbH Unitrends
N-TEC GmbH FAST LTA AG