17.08.2018 (kfr)
3.9 von 5, (10 Bewertungen)

Wie sinnvoll sind Objektspeicher mit NAS-Funktion?

Leserfrage: Objektspeicher sind seit einiger Zeit nun auch mit NAS-Funktionalitäten erhältlich. Lassen sich solche Konfigurationen in der Praxis sinnvoll einsetzen und wie schaut es mit der Performance und Leistungswerten aus?

Antwort Doc Storage:

Da diese Frage sehr generisch gehalten ist, muss ich die Antwort leider auch generisch ausfallen. Dass jede Art von Speicher irgendwann mit NAS-Funktionen kommen würde, war abzusehen. Vor allem bei den Objektspeichern hat es mich ehrlich gesagt gewundert, dass diese Ergänzung so lange gebraucht hat. Die Frage nach der Sinnhaftigkeit muss jeder Nutzer für sich selbst klären. Allerdings meine ich, dass Objekt- und NAS-Speicher auch organisatorisch gut zusammenpassen können.

Zunächst einmal wurden ja Systeme veröffentlicht, die neben Objektfunktionen auch NAS-Speicher bieten. Heißt, ein Teil der Kapazität steht für Objekte, der andere für Dateisysteme zur Verfügung. Das dürfte keine Schwierigkeiten bereiten, auch und vor allem in der Leistung der Geräte. Die Anbindung kann über bis zu 10 Gbit erfolgen und ist damit (nominell) sogar schneller als das momentan am häufigsten verwendete 8-Gbit-FC (jaja, ich weiß, es gibt schon 16 Gbit, aber wer hat das schon?). Abzüglich der Protokollüberhänge und anderer technisch begründeter Faktoren dürften beide Anbindungen ungefähr gleich schnell sein.

Also kommt es lediglich auf die Art und Menge der gebotenen Objekt- und NAS-Funktionalitäten und deren tatsächlicher Nutzung auf der einen und der Ausstattung mit CPU und Hauptspeicher auf der anderen Seite an. Beide Funktionalitäten auszuführen, dürfte allerdings mit heutigen CPUs und vernünftiger RAM-Ausstattung kein Problem sein.

Die nächste Generation sind dann Systeme, die sowohl Objektfunktionen als auch NAS über denselben Datenbestand bieten (jaja, ich weiß, vielen kräuseln sich bei dem Gedanken die Nackenhaare, aber nur mal so als Gedanke...). Das dürfte das Durchsuchen von Dateisystemen wesentlich beschleunigen, da zum Beispiel die Metadaten der Objekte zu Hilfe genommen werden können. Auch den immer wieder problematischen Zugriffen mehrerer Systeme auf dieselbe Datei dürfte der Schrecken genommen werden, könnten doch im Hintergrund mehrere Objekte erzeugt und diese parallel bearbeitet werden (ich weiß, ich weiß, viele Speicherpuristen und Logiker erschlagen mich jetzt, nachdem sie ihren ersten Schrecken überwunden haben...).

Vor allem aber könnte dieselbe Kapazität für zwei unterschiedliche Funktionalitäten genutzt und so wesentlich besser ausgelastet werden. Auch hier ergibt sich die Leistung des Systems vor allem aus den eingesetzten CPUs und der Menge an verfügbarem Hauptspeicher.

So, und jetzt können wir gerne eine Diskussion eröffnen, wieviel es davon schon verwirklicht und zu kaufen gibt, und ob das tatsächlich sinnvoll ist. Ich möchte nur bitte keine Werbung in den Zuschriften haben, so wie es über die letzten Wochen leider wieder einmal der Fall war. Werde mich nur mit konzeptionellen Beiträgen beschäftigen, Werbeinhalte und solche mit Produktnennungen werden – wie immer – ignoriert.

Gruß
Doc Storage

Kommentare (1)
24.08.2018 - mress

Ich teile die Begeisterung für Objektspeicher mit Doc - alleine der Zugriff auf Objektspeicher mittels HTTPS ermöglicht vielfältige Nutzungen - man denke nur alleine an die Möglichkeit horizontal zu skalieren, mittels Proxies, Loadbalancern etc. auf Objekspeicher zugreiffen zu können oder mittels HTTP Redirects Einzelelemente ausser Betrieb zu nehmen. Eine einzelne Objektspeicherinstanz kann sogar bis weit in den Bereich von EB hinein skalieren. Hier ist aber auch genau das Problem: Objektspeicher sollte man nicht mit NAS kombinieren! Gateways (wie Cloudberry, Hitachi HDI, Scality Zenko, Datatrust Cloud Gateway, Ontap Select, etc.) können diese Funktion wesentlich effektiver wahrnehmen als das eigentliche Objektspeichersystem noch zusätzlich mit SMB oder NFS Protokollen zu vergewaltigen. pNFS 4.2 und SMB V3.0 können zwar heute schon horizontal skalieren (von den Clients reden wir jetzt besser nicht), allerdings ist der Overhead auf dem Objektspeicher für diese zusätzlichen Protokolle zu hoch und es reduziert die Funktionalitäten des Objektspeichers. Wer sich mal mit Multipart Upload und Multipart Delete beschäftigt hat weiss was ich meine.

Daher meine klare Empfehlung: Investieren Sie in skalierbaren Objektspeicher - sinnvollerweise mit Archivsupport (S3a + native API) und klären Sie auch ob sie Funktionen wie beispielsweise eine IDW PS 880 Zertifizierung benötigen und Compliancefunktionen. Aber nehmen Sie für NFS und SMB Gateways welche lokal cachen und anhand von Policies die Daten auf den Objektspeicher destagen. Je nach Anwendungsfall können diese Gateways auch als virtuelle Appliances deployed werden und somit erreichen Sie auch effektive Multitenance. Einige Gateways unterstützen auch Edge Computing wobei die Daten alle zentral auf S3 destaged werden und - mit entsprechender Nachsynchronisation - in anderen Edges verwendet werden können.


Mehr von Doc. tec. Storage 13.09.2019 Kann man Daten auf Festplatten erneuern?

Mehrere externe Festplatten wurden vor über zehn Jahren beschrieben und stromlos eingelagert. Kann bzw. sollte man die gespeicherten Daten erneuern, beispielsweise in dem die Daten an die gleiche Stelle zurückgeschrieben werden?


06.09.2019 Verschlüsselung von Festplatten in Servern

Warum sollten einzelner Ordner oder ganze Festplatten im Server-Bereich verschlüsselt werden? Ein Server im Betrieb muss die Daten entschlüsseln, weil sonst kein Zugriff möglich wäre. Generiert dies nicht nur Kosten? Welche Bedrohungen sehen sich Server ausgesetzt und welchen Maßnahmen empfehlen sich?


30.08.2019 Stress – die Perspektive aus dem Doppelboden

Stress ist vielen IT-Abteilungen Gang und Gäbe. Zu wenig Personal und zu enge Zeitrahmen, sind IT-Beauftragten nur allzu gut bekannt. Doc Storage antwortet in seiner Kolumne auf unseren Beitrag in der Rubrik Faktor Mensch und schildert zum Thema Stress seine Perspektive aus dem »Doppelboden«.


23.08.2019 Was ist Computational-Storage?

In Verbindung mit einer schnelleren Datenverarbeitung fällt wiederholt der Begriff Computational-Storage. Angeblich soll es sich um eine spannende Zukunftstechnologien handeln, wie sehen Sie das und welchen Stand hat die Technik bisher?


02.08.2019 Soft-/Hardware: Wie Daten richtig verschlüsseln?

Eine Software-Verschlüsselung soll weniger Probleme verursachen, als eine Hardware-Verschlüsselung. Stimmt das? Was passiert, wenn der gewählte Verschlüsselungsanbieter nicht mehr verfügbar ist, wie kommt man dann an seine Daten?


12.07.2019 Analysten-Prognosen sind verschwendete Lebenszeit

Diesmal nimmt sich Doc Storage die Trendvorhersagen von Marktforschern vor. Seiner Ansicht nach ist vieles nur ein Blick in die Glaskugel, anderes dagegen so offensichtlich, dass es keine weitere Betrachtung benötige. Er hält diese Art von Info für verschwendete Lebenszeit.

powered by
Boston Server & Storage Solutions Itiso GmbH
Fujitsu Technology Solutions GmbH Infortrend
N-TEC GmbH FAST LTA AG
Datacore Software Seagate Technology
Folgen Sie speicherguide.de auch auf unseren Social-Media-Kanälen
Folgen Sie und auf Facebook Folgen Sie und auf YouTube Folgen Sie und auf Twitter