17.08.2018 (kfr)
3.9 von 5, (10 Bewertungen)

Wie sinnvoll sind Objektspeicher mit NAS-Funktion?

Leserfrage: Objektspeicher sind seit einiger Zeit nun auch mit NAS-Funktionalitäten erhältlich. Lassen sich solche Konfigurationen in der Praxis sinnvoll einsetzen und wie schaut es mit der Performance und Leistungswerten aus?

Antwort Doc Storage:

Da diese Frage sehr generisch gehalten ist, muss ich die Antwort leider auch generisch ausfallen. Dass jede Art von Speicher irgendwann mit NAS-Funktionen kommen würde, war abzusehen. Vor allem bei den Objektspeichern hat es mich ehrlich gesagt gewundert, dass diese Ergänzung so lange gebraucht hat. Die Frage nach der Sinnhaftigkeit muss jeder Nutzer für sich selbst klären. Allerdings meine ich, dass Objekt- und NAS-Speicher auch organisatorisch gut zusammenpassen können.

Anzeige

Zunächst einmal wurden ja Systeme veröffentlicht, die neben Objektfunktionen auch NAS-Speicher bieten. Heißt, ein Teil der Kapazität steht für Objekte, der andere für Dateisysteme zur Verfügung. Das dürfte keine Schwierigkeiten bereiten, auch und vor allem in der Leistung der Geräte. Die Anbindung kann über bis zu 10 Gbit erfolgen und ist damit (nominell) sogar schneller als das momentan am häufigsten verwendete 8-Gbit-FC (jaja, ich weiß, es gibt schon 16 Gbit, aber wer hat das schon?). Abzüglich der Protokollüberhänge und anderer technisch begründeter Faktoren dürften beide Anbindungen ungefähr gleich schnell sein.

Also kommt es lediglich auf die Art und Menge der gebotenen Objekt- und NAS-Funktionalitäten und deren tatsächlicher Nutzung auf der einen und der Ausstattung mit CPU und Hauptspeicher auf der anderen Seite an. Beide Funktionalitäten auszuführen, dürfte allerdings mit heutigen CPUs und vernünftiger RAM-Ausstattung kein Problem sein.

Die nächste Generation sind dann Systeme, die sowohl Objektfunktionen als auch NAS über denselben Datenbestand bieten (jaja, ich weiß, vielen kräuseln sich bei dem Gedanken die Nackenhaare, aber nur mal so als Gedanke...). Das dürfte das Durchsuchen von Dateisystemen wesentlich beschleunigen, da zum Beispiel die Metadaten der Objekte zu Hilfe genommen werden können. Auch den immer wieder problematischen Zugriffen mehrerer Systeme auf dieselbe Datei dürfte der Schrecken genommen werden, könnten doch im Hintergrund mehrere Objekte erzeugt und diese parallel bearbeitet werden (ich weiß, ich weiß, viele Speicherpuristen und Logiker erschlagen mich jetzt, nachdem sie ihren ersten Schrecken überwunden haben...).

Vor allem aber könnte dieselbe Kapazität für zwei unterschiedliche Funktionalitäten genutzt und so wesentlich besser ausgelastet werden. Auch hier ergibt sich die Leistung des Systems vor allem aus den eingesetzten CPUs und der Menge an verfügbarem Hauptspeicher.

So, und jetzt können wir gerne eine Diskussion eröffnen, wieviel es davon schon verwirklicht und zu kaufen gibt, und ob das tatsächlich sinnvoll ist. Ich möchte nur bitte keine Werbung in den Zuschriften haben, so wie es über die letzten Wochen leider wieder einmal der Fall war. Werde mich nur mit konzeptionellen Beiträgen beschäftigen, Werbeinhalte und solche mit Produktnennungen werden – wie immer – ignoriert.

Gruß
Doc Storage

Kommentare (1)
24.08.2018 - mress

Ich teile die Begeisterung für Objektspeicher mit Doc - alleine der Zugriff auf Objektspeicher mittels HTTPS ermöglicht vielfältige Nutzungen - man denke nur alleine an die Möglichkeit horizontal zu skalieren, mittels Proxies, Loadbalancern etc. auf Objekspeicher zugreiffen zu können oder mittels HTTP Redirects Einzelelemente ausser Betrieb zu nehmen. Eine einzelne Objektspeicherinstanz kann sogar bis weit in den Bereich von EB hinein skalieren. Hier ist aber auch genau das Problem: Objektspeicher sollte man nicht mit NAS kombinieren! Gateways (wie Cloudberry, Hitachi HDI, Scality Zenko, Datatrust Cloud Gateway, Ontap Select, etc.) können diese Funktion wesentlich effektiver wahrnehmen als das eigentliche Objektspeichersystem noch zusätzlich mit SMB oder NFS Protokollen zu vergewaltigen. pNFS 4.2 und SMB V3.0 können zwar heute schon horizontal skalieren (von den Clients reden wir jetzt besser nicht), allerdings ist der Overhead auf dem Objektspeicher für diese zusätzlichen Protokolle zu hoch und es reduziert die Funktionalitäten des Objektspeichers. Wer sich mal mit Multipart Upload und Multipart Delete beschäftigt hat weiss was ich meine.

Daher meine klare Empfehlung: Investieren Sie in skalierbaren Objektspeicher - sinnvollerweise mit Archivsupport (S3a + native API) und klären Sie auch ob sie Funktionen wie beispielsweise eine IDW PS 880 Zertifizierung benötigen und Compliancefunktionen. Aber nehmen Sie für NFS und SMB Gateways welche lokal cachen und anhand von Policies die Daten auf den Objektspeicher destagen. Je nach Anwendungsfall können diese Gateways auch als virtuelle Appliances deployed werden und somit erreichen Sie auch effektive Multitenance. Einige Gateways unterstützen auch Edge Computing wobei die Daten alle zentral auf S3 destaged werden und - mit entsprechender Nachsynchronisation - in anderen Edges verwendet werden können.


Mehr von Doc. tec. Storage 05.06.2020 Daten-Crash beim Kopieren zwischen zwei NAS-Systemen

Ein Leser wollte Daten von einem in die Jahre gekommen NAS-System auf ein Neues überspielen. Der Windows-Explorer entpuppte sich allerdings als kein zuverlässiges Kopierwerkzeug für große Datenmengen. Es kam zum Daten-Crash, inklusive einem beschädigtem Dateisystem. Doc Storage sieht bestenfalls eine minimale Chance, die Daten wiederherzustellen.


29.05.2020 Ein RAID ersetzt kein Backup

Im NAS-System einer unserer Leser ist eine HDD ausgefallen. Während des Rebuilds auf eine neue Festplatte kommt es zum Supergau und es fällt auch die zweite der beiden ursprünglichen RAID-1-Platten aus. Der Nutzer hatte diese Konfiguration extra aus Gründen der Datensicherheit gewählt. Da bleibt Doc Storage leider nur eine Antwort: Ein RAID ersetzt kein Backup.


15.05.2020 Doc Storage: »Ich vermisse den Gegenwind«

Doc Storage ist fassungslos, fast sogar ein kleinwenig sprachlos. Na ja, nicht ganz, Sie kennen ihn ja. Nachdem er den Einfluss der Coronakrise auf die IT ausführlich und aus verschiedenen Blickwinkeln beleuchtet hat, inklusiver einiger steiler Thesen, ist es ihm hier eindeutig zu ruhig. Da hatte er sich mehr Gegenwind erwartet. Liebe Leser, unser Doc hat Ihnen etwas zu sagen…


08.05.2020 HPC-Speicher: schnell & sicher schließen sich meist aus

Doc Storage nimmt sich in seiner Kolumne unter anderem die HPC-Studie von Hyperion Research vor. High-Performance-Computing hat aus seiner Sicht klar den Auftrag schnell zu sein. Die von den Marktforschern geforderte Ausfallsicherheit, wäre kein Problem, wenn die Firmen genug Geld ausgeben würden. Ansonsten gehe ein Mehr an Sicherheitsmaßnahmen immer zu Lasten der Leistung.


30.04.2020 Cloud vs. On-Premises: Wichtige Daten nur inhouse speichern

Wer daran denkt, wichtige Daten in die Cloud auszulagern, sollte sich nicht fragen, wie hoch die Einsparungen gegenüber On-Premises ausfallen, sondern was es kosten wird, sollten die Daten kompromittiert werden. Der Cloud-Act ist zwar eine reale Gefahr, letztendlich ist aber jeder halbwegs begabte Hacker eine Bedrohung. Laut Doc Storage kann der Rat daher nur lauten: »Behalten Sie Ihre Daten inhouse mit maximalen Sicherheitsvorkehrungen«.


24.04.2020 Corona/IT Teil 3: Die Zeit nach Corona: Ein Blick in die Zukunft

Wann auch immer die Einschränkungen aufgehoben werden, es wird eine Zeit danach geben. Und darin ist sich Doc Storage sicher, naja, er hofft es, es wird vieles nicht mehr so sein wie vorher. Möglicherweise stellen Firmen fest, dass es mit weniger Hard- und Software genauso gut geht, ohne externe Berater und einem wesentlich geringeren Budget. Und die Ersparnis darin liegt, die IT vor allem intern zu regeln.

powered by
Zadara Itiso GmbH
Fujitsu Technology Solutions GmbH Infortrend
N-TEC GmbH FAST LTA
Folgen Sie speicherguide.de auch auf unseren Social-Media-Kanälen
Folgen Sie und auf Facebook Folgen Sie und auf YouTube Folgen Sie und auf Twitter