17.08.2018 (kfr)
3.9 von 5, (10 Bewertungen)

Wie sinnvoll sind Objektspeicher mit NAS-Funktion?

Leserfrage: Objektspeicher sind seit einiger Zeit nun auch mit NAS-Funktionalitäten erhältlich. Lassen sich solche Konfigurationen in der Praxis sinnvoll einsetzen und wie schaut es mit der Performance und Leistungswerten aus?

Antwort Doc Storage:

Da diese Frage sehr generisch gehalten ist, muss ich die Antwort leider auch generisch ausfallen. Dass jede Art von Speicher irgendwann mit NAS-Funktionen kommen würde, war abzusehen. Vor allem bei den Objektspeichern hat es mich ehrlich gesagt gewundert, dass diese Ergänzung so lange gebraucht hat. Die Frage nach der Sinnhaftigkeit muss jeder Nutzer für sich selbst klären. Allerdings meine ich, dass Objekt- und NAS-Speicher auch organisatorisch gut zusammenpassen können.

Zunächst einmal wurden ja Systeme veröffentlicht, die neben Objektfunktionen auch NAS-Speicher bieten. Heißt, ein Teil der Kapazität steht für Objekte, der andere für Dateisysteme zur Verfügung. Das dürfte keine Schwierigkeiten bereiten, auch und vor allem in der Leistung der Geräte. Die Anbindung kann über bis zu 10 Gbit erfolgen und ist damit (nominell) sogar schneller als das momentan am häufigsten verwendete 8-Gbit-FC (jaja, ich weiß, es gibt schon 16 Gbit, aber wer hat das schon?). Abzüglich der Protokollüberhänge und anderer technisch begründeter Faktoren dürften beide Anbindungen ungefähr gleich schnell sein.

Also kommt es lediglich auf die Art und Menge der gebotenen Objekt- und NAS-Funktionalitäten und deren tatsächlicher Nutzung auf der einen und der Ausstattung mit CPU und Hauptspeicher auf der anderen Seite an. Beide Funktionalitäten auszuführen, dürfte allerdings mit heutigen CPUs und vernünftiger RAM-Ausstattung kein Problem sein.

Die nächste Generation sind dann Systeme, die sowohl Objektfunktionen als auch NAS über denselben Datenbestand bieten (jaja, ich weiß, vielen kräuseln sich bei dem Gedanken die Nackenhaare, aber nur mal so als Gedanke...). Das dürfte das Durchsuchen von Dateisystemen wesentlich beschleunigen, da zum Beispiel die Metadaten der Objekte zu Hilfe genommen werden können. Auch den immer wieder problematischen Zugriffen mehrerer Systeme auf dieselbe Datei dürfte der Schrecken genommen werden, könnten doch im Hintergrund mehrere Objekte erzeugt und diese parallel bearbeitet werden (ich weiß, ich weiß, viele Speicherpuristen und Logiker erschlagen mich jetzt, nachdem sie ihren ersten Schrecken überwunden haben...).

Vor allem aber könnte dieselbe Kapazität für zwei unterschiedliche Funktionalitäten genutzt und so wesentlich besser ausgelastet werden. Auch hier ergibt sich die Leistung des Systems vor allem aus den eingesetzten CPUs und der Menge an verfügbarem Hauptspeicher.

So, und jetzt können wir gerne eine Diskussion eröffnen, wieviel es davon schon verwirklicht und zu kaufen gibt, und ob das tatsächlich sinnvoll ist. Ich möchte nur bitte keine Werbung in den Zuschriften haben, so wie es über die letzten Wochen leider wieder einmal der Fall war. Werde mich nur mit konzeptionellen Beiträgen beschäftigen, Werbeinhalte und solche mit Produktnennungen werden – wie immer – ignoriert.

Gruß
Doc Storage

Kommentare (1)
24.08.2018 - mress

Ich teile die Begeisterung für Objektspeicher mit Doc - alleine der Zugriff auf Objektspeicher mittels HTTPS ermöglicht vielfältige Nutzungen - man denke nur alleine an die Möglichkeit horizontal zu skalieren, mittels Proxies, Loadbalancern etc. auf Objekspeicher zugreiffen zu können oder mittels HTTP Redirects Einzelelemente ausser Betrieb zu nehmen. Eine einzelne Objektspeicherinstanz kann sogar bis weit in den Bereich von EB hinein skalieren. Hier ist aber auch genau das Problem: Objektspeicher sollte man nicht mit NAS kombinieren! Gateways (wie Cloudberry, Hitachi HDI, Scality Zenko, Datatrust Cloud Gateway, Ontap Select, etc.) können diese Funktion wesentlich effektiver wahrnehmen als das eigentliche Objektspeichersystem noch zusätzlich mit SMB oder NFS Protokollen zu vergewaltigen. pNFS 4.2 und SMB V3.0 können zwar heute schon horizontal skalieren (von den Clients reden wir jetzt besser nicht), allerdings ist der Overhead auf dem Objektspeicher für diese zusätzlichen Protokolle zu hoch und es reduziert die Funktionalitäten des Objektspeichers. Wer sich mal mit Multipart Upload und Multipart Delete beschäftigt hat weiss was ich meine.

Daher meine klare Empfehlung: Investieren Sie in skalierbaren Objektspeicher - sinnvollerweise mit Archivsupport (S3a + native API) und klären Sie auch ob sie Funktionen wie beispielsweise eine IDW PS 880 Zertifizierung benötigen und Compliancefunktionen. Aber nehmen Sie für NFS und SMB Gateways welche lokal cachen und anhand von Policies die Daten auf den Objektspeicher destagen. Je nach Anwendungsfall können diese Gateways auch als virtuelle Appliances deployed werden und somit erreichen Sie auch effektive Multitenance. Einige Gateways unterstützen auch Edge Computing wobei die Daten alle zentral auf S3 destaged werden und - mit entsprechender Nachsynchronisation - in anderen Edges verwendet werden können.


Mehr von Doc. tec. Storage 22.02.2019 Welcher RAID-Level für welche Anwendung?

Gibt es eigentliche eine Faustregel, welches RAID-Level für welche Anwendung am besten geeignet ist? Ich denke da zum Beispiel an Datenbanken mit sehr vielen Zugriffen bei relativ kleinen Datenmengen oder an Webserver und als Extrem auf der anderen Seite Bild-Datenbanken, Audio-Server beim Rundfunk, Video-Archive mit sehr hohen Datenvolumen.


15.02.2019 Was sagt DWPD über SSDs aus?

Im Zusammenhang mit (Enterprise-)SSDs wird oft die Qualitätsgröße DWPD (Drive Writes Per Day) genutzt. Meist wird die Angabe auch für einen Zeitraum von fünf Jahren spezifiziert. Was sagt DWPD genau aus und mit welcher Standard-Lebensdauer darf man rechnen?


08.02.2019 Unterschiede der Performance-States von SSDs

Gängige Meinung: SSDs sind schnell. In der Praxis gibt es aber dann doch einige Unterschiede, so sind vielen die verschiedenen Performance-States von SSDs und Flash-Speichern nicht bekannt: FOB, steady, burst and transition. Was steckt genau dahinter?


01.02.2019 BSI empfiehlt 200-km-Distanz – 200 km ERNSTHAFT!?

Kurz vor Weihnachten veröffentlichte das BSI neue Kriterien für georedundante RZs. Darin wird der bisher empfohlene Mindestabstand von fünf auf 200 Kilometer hochgesetzt. Aus Praxissicht laut Doc Storage »vollkommener Blödsinn«.


31.01.2019 Nervfaktor digitale Transformation – ein Rant

Die digitale Transformation bzw. Digitalisierung verfolgt uns nun schon geraume Zeit. Mit dem Faktor Mensch kommt nun nochmal ein neues Trendthema hinzu. Doc Storage hat hier eine klare Meinung: »alles Blödsinn – es nervt«. Nichts von dem, was heute diskutiert wird, ist neu und Menschen waren schon immer der Kern eines jeden Geschäftsbetriebs – selbst in der IT.


25.01.2019 SSDs: Was ist mit den Schreibzyklen, wenn SSDs fast voll sind?

Moderne SSDs sorgen mit der Wear-Leveling-Funktion automatisch dafür, dass möglichst gleichmäßig über alle Sektoren geschrieben wird. Wie verhält es sich mit den spezifizierten Schreibzyklen, wenn die SSD nahezu voll ist?

powered by
Boston Server & Storage Solutions Datacore Software
Fujitsu Technology Solutions GmbH Unitrends
N-TEC GmbH FAST LTA AG