17.09.2010 (Doc Storage)
3.5 von 5, (6 Bewertungen)

SSDs benötigen das passende technische Umfeld

Leserfrage: Unsere Datenbank wird derzeit von einem Array mit 24 SAS-Festplatten mit je 500 GByte betrieben. Noch kommen wir damit klar, vorausschauend soll aber vor allem die Performance verbessert werden. Unter anderem möchten wir SSDs als Option prüfen. Nun ist die Frage, wie ermitteln wir, wie uns SSD am besten helfen kann? Von Adaptec soll es ein Tool geben, mit man den Daten-Hotspot ermitteln kann. Welche Faktoren sollten wir bedenken bzw. wie ermitteln wir im Voraus, welche I/O-Werte möglich sind?

Was muss der RAID-Controller können, damit er das Optimum herausholt? Die großen Speicherhersteller treffen letztendlich ja schon eine Vorauswahl, trotzdem, worauf gilt es beim SSD-Einsatz in Highend-Systemen zu achten?

Antwort Doc Storage:

Nun ist die Frage, wie man »Highend-System« definiert. Falls es sich hierbei um Enterprise-Arrays handelt, ist gar nichts zu beachten, allenfalls die Größe kann variiert werden. Die Hersteller der Laufwerke werden von den Anbietern der Arrays vorgegeben, andere Typen und Marken werden nicht zugelassen. Die Laufwerke bieten die Möglichkeit, bis zu 7.000 I/Os abzuarbeiten, in einem RAID-5-Verbund also zwischen 21.000 und knapp über 40.000 I/Os. Die untere Grenze wird von 2+1 Laufwerken gesetzt, die obere vom maximalen I/O-Vermögen eines 4-Gbit-ASICs.

Viele Hersteller bieten neben RAID 5 auch RAID 1 und RAID 6 für SSDs an. RAID 1 ist schlichtweg Platzverschwendung, da sich im Vergleich zu RAID 5 bei Verwendung von SSDs kein Geschwindigkeitsvorteil durch den Wegfall der Paritätsberechnung mehr ergibt. RAID 6 ist unnötig, weil die SSDs inzwischen genauso zuverlässig wie FC-Laufwerke sind und sich noch dazu wesentlich schneller wiederherstellen lassen. Als Größe empfehlen sich zwischen 200 und 400 GByte, da nach unseren Erfahrungen erst hier ausreichend viele Daten auf dem Medium liegen, um entsprechend viele I/Os zu verursachen. Maximal machen sechs SSDs pro FC-Kanal Sinn, da diese mit ihren zirka 42.000 I/Os das ASIC komplett »zumachen« können. Bei weniger SSDs pro Kanal lohnt sich anteilig der zusätzliche Einsatz von FC- oder noch leistungsschwächeren Laufwerken wie SATA oder SAS, bei mehr SSDs kann es zu einer völligen Sättigung des Kanals und damit im Extrem zu erheblichen Leistungseinbußen kommen.

Ist mit »Highend« ein teurerer Controller mit entsprechender Leistung gemeint, ist natürlich auf ganz andere Parameter zu achten. Zunächst einmal muss der Steckplatz »stimmen«. Ist der Kanal des Rechners in der Lage, ein entsprechendes I/O-Aufkommen und einen solchen Durchsatz abzufangen, der von SSDs verursacht werden kann? Sitzen auf diesem Kanal nicht etwa noch andere leistungshungrige Komponenten wie 10-Gbit-Ethernet oder ein hochauflösender Grafikadapter? Wenn diese Fragen geklärt und der entsprechende Rechner gefunden ist, geht es an die Auswahl eines passenden Adapters.

Natürlich lassen sich SSDs an dieselben Ports anschließen wie Standard-SAS- oder SATA-Laufwerke. Das ASIC dieses Controllers wird sich im schlimmsten Falle aber nur noch mit den SSD-I/Os beschäftigen und so die Festplatten-I/Os verdrängen. Hier lässt sich auf zwei Arten Abhilfe schaffen. Entweder beschafft man einen Controller, auf dem sich bereits SSDs befinden, die von einem separaten ASIC gesteuert werden. Oder aber der Controller selbst kann durch I/O-Priorisierung bzw. Bandbreiten-Zuteilung entsprechende Aufteilungen vornehmen.

Gruß
Doc Storage

Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de

Mehr von Doc. tec. Storage 17.05.2019 NAS-Caching oder Tiering für VMs multiple Zugriffe?

In einer Lehrumgebung werden virtuellen Maschinen auf einem NAS mit 10GbE-Anbindung gespeichert. Nachdem eine Erweiterung mit NVMe-Flash ansteht, stellt sich die Frage, ob eine Caching- oder eine Tiering-Konfiguration die sinnvollere Wahl ist?


10.05.2019 Wird Flash nun auch zum Backup-Medium?

Flash wird zunehmend auch für Backup interessant. Der Geschwindigkeitsvorteil soll die Dauer der Sicherung wie auch der Wiederherstellung reduzieren. Macht dies in der Praxis bereits Sinn – auch aus Kostensicht?


03.05.2019 Unterschied zwischen Active/Active und Active/Passive

Beim Thema Hochverfügbarkeit unterscheidet man zwischen Konfigurationen, die Active/Active bzw. Active/Passive agieren. Was ist genau der Unterschied und für welche Szenarien empfehlen sich die beiden Möglichkeiten? Welche Cluster-Architektur bietet hinsichtlich Skalierbarkeit mehr Spielraum für zukünftigen Lastzunahmen?


26.04.2019 Dateisysteme für den PByte-Bereich

Datenberge jenseits des PByte-Bereichs, Cloud-Anbindungen und Analytics-Szenarien stellen Dateiysteme vor neue Herausforderungen. Der Markt bietet einige Optionen wie GPFS, Gluster FS, OneFS oder QF2. Worauf gilt es zu achten? Update zu CephFS und ZFS.


05.04.2019 Neuordnung des Storage-Tiering

Nachdem sich Flash und SSDs mittlerweile auch in mehrere Leistungsklassen unterteilen, steht die Technik nicht mehr nur für Tier 0. 15k-HDDs scheinen vor dem Aus zu stehen. Gilt dies auch für alle SAS-Platten? Wie sieht die Neuordnung des Storage-Tiering aktuell aus?


15.03.2019 30 Jahre World Wide Web: Was gibt es zu feiern?

Das World Wide Web feiert seinen 30. Geburtstag. Ohne dem Internet ist unser heutiges Leben nicht mehr vorstellbar. Für Doc Storage hat das Netz aber auch genug Schattenseiten. An Regulierungen bzw. an das vom Erfinder erhoffte bessere Internet, glaubt er nicht.

powered by
Boston Server & Storage Solutions Datacore Software
Itiso GmbH Seagate Technology
N-TEC GmbH FAST LTA AG
Fujitsu Technology Solutions GmbH Pure Storage