17.08.2018 (kfr)
3.9 von 5, (10 Bewertungen)

Wie sinnvoll sind Objektspeicher mit NAS-Funktion?

Leserfrage: Objektspeicher sind seit einiger Zeit nun auch mit NAS-Funktionalitäten erhältlich. Lassen sich solche Konfigurationen in der Praxis sinnvoll einsetzen und wie schaut es mit der Performance und Leistungswerten aus?

Antwort Doc Storage:

Da diese Frage sehr generisch gehalten ist, muss ich die Antwort leider auch generisch ausfallen. Dass jede Art von Speicher irgendwann mit NAS-Funktionen kommen würde, war abzusehen. Vor allem bei den Objektspeichern hat es mich ehrlich gesagt gewundert, dass diese Ergänzung so lange gebraucht hat. Die Frage nach der Sinnhaftigkeit muss jeder Nutzer für sich selbst klären. Allerdings meine ich, dass Objekt- und NAS-Speicher auch organisatorisch gut zusammenpassen können.

Zunächst einmal wurden ja Systeme veröffentlicht, die neben Objektfunktionen auch NAS-Speicher bieten. Heißt, ein Teil der Kapazität steht für Objekte, der andere für Dateisysteme zur Verfügung. Das dürfte keine Schwierigkeiten bereiten, auch und vor allem in der Leistung der Geräte. Die Anbindung kann über bis zu 10 Gbit erfolgen und ist damit (nominell) sogar schneller als das momentan am häufigsten verwendete 8-Gbit-FC (jaja, ich weiß, es gibt schon 16 Gbit, aber wer hat das schon?). Abzüglich der Protokollüberhänge und anderer technisch begründeter Faktoren dürften beide Anbindungen ungefähr gleich schnell sein.

Also kommt es lediglich auf die Art und Menge der gebotenen Objekt- und NAS-Funktionalitäten und deren tatsächlicher Nutzung auf der einen und der Ausstattung mit CPU und Hauptspeicher auf der anderen Seite an. Beide Funktionalitäten auszuführen, dürfte allerdings mit heutigen CPUs und vernünftiger RAM-Ausstattung kein Problem sein.

Die nächste Generation sind dann Systeme, die sowohl Objektfunktionen als auch NAS über denselben Datenbestand bieten (jaja, ich weiß, vielen kräuseln sich bei dem Gedanken die Nackenhaare, aber nur mal so als Gedanke...). Das dürfte das Durchsuchen von Dateisystemen wesentlich beschleunigen, da zum Beispiel die Metadaten der Objekte zu Hilfe genommen werden können. Auch den immer wieder problematischen Zugriffen mehrerer Systeme auf dieselbe Datei dürfte der Schrecken genommen werden, könnten doch im Hintergrund mehrere Objekte erzeugt und diese parallel bearbeitet werden (ich weiß, ich weiß, viele Speicherpuristen und Logiker erschlagen mich jetzt, nachdem sie ihren ersten Schrecken überwunden haben...).

Vor allem aber könnte dieselbe Kapazität für zwei unterschiedliche Funktionalitäten genutzt und so wesentlich besser ausgelastet werden. Auch hier ergibt sich die Leistung des Systems vor allem aus den eingesetzten CPUs und der Menge an verfügbarem Hauptspeicher.

So, und jetzt können wir gerne eine Diskussion eröffnen, wieviel es davon schon verwirklicht und zu kaufen gibt, und ob das tatsächlich sinnvoll ist. Ich möchte nur bitte keine Werbung in den Zuschriften haben, so wie es über die letzten Wochen leider wieder einmal der Fall war. Werde mich nur mit konzeptionellen Beiträgen beschäftigen, Werbeinhalte und solche mit Produktnennungen werden – wie immer – ignoriert.

Gruß
Doc Storage

Kommentare (1)
24.08.2018 - mress

Ich teile die Begeisterung für Objektspeicher mit Doc - alleine der Zugriff auf Objektspeicher mittels HTTPS ermöglicht vielfältige Nutzungen - man denke nur alleine an die Möglichkeit horizontal zu skalieren, mittels Proxies, Loadbalancern etc. auf Objekspeicher zugreiffen zu können oder mittels HTTP Redirects Einzelelemente ausser Betrieb zu nehmen. Eine einzelne Objektspeicherinstanz kann sogar bis weit in den Bereich von EB hinein skalieren. Hier ist aber auch genau das Problem: Objektspeicher sollte man nicht mit NAS kombinieren! Gateways (wie Cloudberry, Hitachi HDI, Scality Zenko, Datatrust Cloud Gateway, Ontap Select, etc.) können diese Funktion wesentlich effektiver wahrnehmen als das eigentliche Objektspeichersystem noch zusätzlich mit SMB oder NFS Protokollen zu vergewaltigen. pNFS 4.2 und SMB V3.0 können zwar heute schon horizontal skalieren (von den Clients reden wir jetzt besser nicht), allerdings ist der Overhead auf dem Objektspeicher für diese zusätzlichen Protokolle zu hoch und es reduziert die Funktionalitäten des Objektspeichers. Wer sich mal mit Multipart Upload und Multipart Delete beschäftigt hat weiss was ich meine.

Daher meine klare Empfehlung: Investieren Sie in skalierbaren Objektspeicher - sinnvollerweise mit Archivsupport (S3a + native API) und klären Sie auch ob sie Funktionen wie beispielsweise eine IDW PS 880 Zertifizierung benötigen und Compliancefunktionen. Aber nehmen Sie für NFS und SMB Gateways welche lokal cachen und anhand von Policies die Daten auf den Objektspeicher destagen. Je nach Anwendungsfall können diese Gateways auch als virtuelle Appliances deployed werden und somit erreichen Sie auch effektive Multitenance. Einige Gateways unterstützen auch Edge Computing wobei die Daten alle zentral auf S3 destaged werden und - mit entsprechender Nachsynchronisation - in anderen Edges verwendet werden können.


Mehr von Doc. tec. Storage 30.11.2018 Das Ende der Cebit ist ein Trauerspiel – ein Rant

Seit Jahren siechte die Cebit ihrem Ende entgegen. So formulierten es Experten und auch unser Doc Storage bereits mehrfach. Das Aus war quasi schon beschlossen, dürfte aber trotzdem nicht sein. Das Ende der Cebit belegt auch, wie schlecht es um den Digitalstandort Deutschland bestellt ist. Ein Rant von Doc Storage…


16.11.2018 Was ist das HAMR-Verfahren?

Herkömmliche Festplatten sind beschränkt in ihrer Kapazitätssteigerung. Neue Verfahren sollen das ändern, so unter anderem das Heat-Assisted Magnetic Recording (HAMR). Die Technik arbeitet mit einem Laser, noch fehlen aber fertige Serienmodelle. Doc Storage erklärt, was Sie dazu Wissen sollten.


02.11.2018 Kann man ehemalige NAS-HDDs ohne NAS auslesen?

Manchmal kann der Doc Leserfragen zwar schlüssig erklären, hat aber keine guten Nachrichten: Zwei Festplatten wurden aus einem Synology-NAS ausgebaut und nun wundert sich der Anwender, warum er nicht mehr auf die Dateistruktur zugreifen kann. Es gibt mögliche Chancen, die bringen aber selbst Profis ins Schwitzen.


19.10.2018 NAS: Wie viele Volumes sind sinnvoll?

Die Ausgangslage ist ein Desktop-NAS mit RAID-5-Verbund. Wie ordnet man hier am sinnvollsten seine Daten? Ist es besser ein einziges Standard-Volume nutzen oder zu versuchen mit mehreren Volumes eine Struktur aufzubauen? Wie viele Volumes sind sinnvoll?


12.10.2018 Was bringt NVMe-oF und NF1?

Kürzlich wurde mit Mission Peak ein neues skalierbares und angeblich hochperformantes Speichersystem vorgestellt. Das Gerät basiert auf NVMe-oF und nutzt NF1-SSDs. Sind diese Technologien wirklich so toll? Wie hoch darf man die Erwartungen schrauben?


31.08.2018 Was ist Edge-Computing?

Neben dem Cloud-Computing wabert auch immer mal wieder der Begriff Edge-Computing vorbei. Eine der Definitionen lautet zum Beispiel, dass Daten direkt am Ursprung verarbeitet werden sollen, ohne dabei den Weg über ein Rechenzentrum einzuschlagen. Was bedeutet das genau und wofür brauchen wir Edge-Computing?

powered by
TIM DCP Datacore Software
N-TEC GmbH Unitrends
Fujitsu Technology Solutions GmbH