17.08.2018 (kfr)
3.9 von 5, (10 Bewertungen)

Wie sinnvoll sind Objektspeicher mit NAS-Funktion?

Leserfrage: Objektspeicher sind seit einiger Zeit nun auch mit NAS-Funktionalitäten erhältlich. Lassen sich solche Konfigurationen in der Praxis sinnvoll einsetzen und wie schaut es mit der Performance und Leistungswerten aus?

Antwort Doc Storage:

Da diese Frage sehr generisch gehalten ist, muss ich die Antwort leider auch generisch ausfallen. Dass jede Art von Speicher irgendwann mit NAS-Funktionen kommen würde, war abzusehen. Vor allem bei den Objektspeichern hat es mich ehrlich gesagt gewundert, dass diese Ergänzung so lange gebraucht hat. Die Frage nach der Sinnhaftigkeit muss jeder Nutzer für sich selbst klären. Allerdings meine ich, dass Objekt- und NAS-Speicher auch organisatorisch gut zusammenpassen können.

Zunächst einmal wurden ja Systeme veröffentlicht, die neben Objektfunktionen auch NAS-Speicher bieten. Heißt, ein Teil der Kapazität steht für Objekte, der andere für Dateisysteme zur Verfügung. Das dürfte keine Schwierigkeiten bereiten, auch und vor allem in der Leistung der Geräte. Die Anbindung kann über bis zu 10 Gbit erfolgen und ist damit (nominell) sogar schneller als das momentan am häufigsten verwendete 8-Gbit-FC (jaja, ich weiß, es gibt schon 16 Gbit, aber wer hat das schon?). Abzüglich der Protokollüberhänge und anderer technisch begründeter Faktoren dürften beide Anbindungen ungefähr gleich schnell sein.

Also kommt es lediglich auf die Art und Menge der gebotenen Objekt- und NAS-Funktionalitäten und deren tatsächlicher Nutzung auf der einen und der Ausstattung mit CPU und Hauptspeicher auf der anderen Seite an. Beide Funktionalitäten auszuführen, dürfte allerdings mit heutigen CPUs und vernünftiger RAM-Ausstattung kein Problem sein.

Die nächste Generation sind dann Systeme, die sowohl Objektfunktionen als auch NAS über denselben Datenbestand bieten (jaja, ich weiß, vielen kräuseln sich bei dem Gedanken die Nackenhaare, aber nur mal so als Gedanke...). Das dürfte das Durchsuchen von Dateisystemen wesentlich beschleunigen, da zum Beispiel die Metadaten der Objekte zu Hilfe genommen werden können. Auch den immer wieder problematischen Zugriffen mehrerer Systeme auf dieselbe Datei dürfte der Schrecken genommen werden, könnten doch im Hintergrund mehrere Objekte erzeugt und diese parallel bearbeitet werden (ich weiß, ich weiß, viele Speicherpuristen und Logiker erschlagen mich jetzt, nachdem sie ihren ersten Schrecken überwunden haben...).

Vor allem aber könnte dieselbe Kapazität für zwei unterschiedliche Funktionalitäten genutzt und so wesentlich besser ausgelastet werden. Auch hier ergibt sich die Leistung des Systems vor allem aus den eingesetzten CPUs und der Menge an verfügbarem Hauptspeicher.

So, und jetzt können wir gerne eine Diskussion eröffnen, wieviel es davon schon verwirklicht und zu kaufen gibt, und ob das tatsächlich sinnvoll ist. Ich möchte nur bitte keine Werbung in den Zuschriften haben, so wie es über die letzten Wochen leider wieder einmal der Fall war. Werde mich nur mit konzeptionellen Beiträgen beschäftigen, Werbeinhalte und solche mit Produktnennungen werden – wie immer – ignoriert.

Gruß
Doc Storage

Kommentare (1)
24.08.2018 - mress

Ich teile die Begeisterung für Objektspeicher mit Doc - alleine der Zugriff auf Objektspeicher mittels HTTPS ermöglicht vielfältige Nutzungen - man denke nur alleine an die Möglichkeit horizontal zu skalieren, mittels Proxies, Loadbalancern etc. auf Objekspeicher zugreiffen zu können oder mittels HTTP Redirects Einzelelemente ausser Betrieb zu nehmen. Eine einzelne Objektspeicherinstanz kann sogar bis weit in den Bereich von EB hinein skalieren. Hier ist aber auch genau das Problem: Objektspeicher sollte man nicht mit NAS kombinieren! Gateways (wie Cloudberry, Hitachi HDI, Scality Zenko, Datatrust Cloud Gateway, Ontap Select, etc.) können diese Funktion wesentlich effektiver wahrnehmen als das eigentliche Objektspeichersystem noch zusätzlich mit SMB oder NFS Protokollen zu vergewaltigen. pNFS 4.2 und SMB V3.0 können zwar heute schon horizontal skalieren (von den Clients reden wir jetzt besser nicht), allerdings ist der Overhead auf dem Objektspeicher für diese zusätzlichen Protokolle zu hoch und es reduziert die Funktionalitäten des Objektspeichers. Wer sich mal mit Multipart Upload und Multipart Delete beschäftigt hat weiss was ich meine.

Daher meine klare Empfehlung: Investieren Sie in skalierbaren Objektspeicher - sinnvollerweise mit Archivsupport (S3a + native API) und klären Sie auch ob sie Funktionen wie beispielsweise eine IDW PS 880 Zertifizierung benötigen und Compliancefunktionen. Aber nehmen Sie für NFS und SMB Gateways welche lokal cachen und anhand von Policies die Daten auf den Objektspeicher destagen. Je nach Anwendungsfall können diese Gateways auch als virtuelle Appliances deployed werden und somit erreichen Sie auch effektive Multitenance. Einige Gateways unterstützen auch Edge Computing wobei die Daten alle zentral auf S3 destaged werden und - mit entsprechender Nachsynchronisation - in anderen Edges verwendet werden können.


Mehr von Doc. tec. Storage 12.07.2019 Analysten-Prognosen sind verschwendete Lebenszeit

Diesmal nimmt sich Doc Storage die Trendvorhersagen von Marktforschern vor. Seiner Ansicht nach ist vieles nur ein Blick in die Glaskugel, anderes dagegen so offensichtlich, dass es keine weitere Betrachtung benötige. Er hält diese Art von Info für verschwendete Lebenszeit.


28.06.2019 DSGVO bleibt aus DV-Sicht ein unsägliches Thema

Kolumne: Unser Doc Storage ist kein Freund der DSGVO. Dies hat er in mehreren Kolumnen klar formuliert. In seinem zweiten Teil zu »Ein Jahr DSGVO« fasst er nochmal zusammen, warum die Thematik aus seiner DV-Sicht für Firmen unsäglich ist.


14.06.2019 Ein Jahr DSGVO: Aufwand unerträglich hoch

Kolumne: Zur Einführung der DSGVO hat Doc Storage mächtig Dampf abgelassen. Ein Jahr später lässt kaum ein Verband ein gutes Haar an der Datenschutz-Grundverordnung. Der Aufwand für Firmen und IT-Abteilungen sei unerträglich hoch.


07.06.2019 Welchen Flash für welche Anwendung?

Vor rund sechs Jahren schickten sich Flash-Speicher an, sich in Computern und Storage-Systemen zu etablieren. Damals galten die Lösungen aber noch als proprietär. Wo steht die Technik heute und welcher Flash eignet sich für welchen Einsatzzweck?


17.05.2019 NAS-Caching oder Tiering für VMs multiple Zugriffe?

In einer Lehrumgebung werden virtuellen Maschinen auf einem NAS mit 10GbE-Anbindung gespeichert. Nachdem eine Erweiterung mit NVMe-Flash ansteht, stellt sich die Frage, ob eine Caching- oder eine Tiering-Konfiguration die sinnvollere Wahl ist?


10.05.2019 Wird Flash nun auch zum Backup-Medium?

Flash wird zunehmend auch für Backup interessant. Der Geschwindigkeitsvorteil soll die Dauer der Sicherung wie auch der Wiederherstellung reduzieren. Macht dies in der Praxis bereits Sinn – auch aus Kostensicht?

powered by
Boston Server & Storage Solutions Datacore Software
Itiso GmbH Seagate Technology
N-TEC GmbH FAST LTA AG
Fujitsu Technology Solutions GmbH Infortrend