02.12.2016 (Doc Storage)
4.3 von 5, (8 Bewertungen)

Object-Storage – wird das langsam etwas?

Leserfrage: Lieber Doc Storage, vor drei Jahren waren Sie noch etwas skeptisch, was den Einsatz von Object-Storage anbelangt. Wie sieht das jetzt aus? Der Markt wurde breiter, es gibt viel mehr Lösungen (siehe IBM/Cleversafe, Fujitsu, HPE, Cloudian, Scality). Kann man das nun ernsthafter in Betracht ziehen? Auf welche Unterschiede müsste man bei den Features achten?

Antwort Doc Storage:

Da wir bereits mehrfach eine Übersicht über das Thema und die technische Funktionsweise von Objektspeichern gegeben haben, erspare ich Ihnen und uns hier den erneuten Exkurs. Es stimmt tatsächlich, die Beteiligung teilweise bedeutender Unternehmen und Zusammenschlüsse wie Dell/EMC (mit Centera und Atmos), Hitachi (mit HCP) IBM (mit SoftLayer), NetApp (mit StorageGrid) Quantum (mit Lattus), RedHat/Inktank (mit Object), Scality (mit Ring) und vieler anderer scheint Objektspeicher tatsächlich zur »dritten Macht« im Rechenzentrum gemacht zu haben. Die Quasi-Einigung auf das RESTful-API gaukelt sogar eine Standardisierung der Plattformen zur Anwendung hin vor, allerdings gibt es hier viele verschiedene Ausprägungen, beispielsweise das der SNIA, SWIFT OpenStack, den Simple Storage Service (S3) von Amazon oder OSD T10, um nur einige zu nennen. Somit schränkt man sich doch sehr auf den einen oder anderen Hersteller ein, sobald man sich für einen von diesen entscheidet, auch wenn überall RESTful auf der Packung steht.

Allerdings kann man nach den über zehn Jahren des Reifens am Kunden den Einsatz von Objektspeichern in bestimmten Umgebungen durchaus in Betracht ziehen. SAN- und NAS-Umgebungen kranken immer noch an den Gegebenheiten, die man ihnen ganz zu Anfang ihrer Evolution übergestülpt und niemals tatsächlich handhabbar gemacht hat. Ein SAN arbeitet – zumindest in der überwiegenden Mehrheit – immer noch mich dem am schwierigsten einzurichtenden und zu unterhaltenden Protokoll überhaupt, nämlich FC. Heere von auf die eine oder andere Hardware unterschiedlicher Hersteller, in unverschämt teuren Verfahren, zertifizierten Experten müssen sich um die fehlerfreie Unterhaltung der entsprechenden Infrastruktur kümmern, unterstützt von ebenso teurer und nicht immer besonders begabter Software.

Für eine Technologie, die ihre Anfänge bereits im letzten Jahrtausend hatte, rufen die Hersteller immer noch mutige Preise für die beteiligten Komponenten ab, ohne tatsächlich entsprechende Leistung folgen zu lassen. NAS hat das Problem der Singularität, kann damit innerhalb eines Verwaltungsraumes nur schwer sehr große Umgebungen handhaben. Auch wenn mir NAS-Hersteller natürlich immer wieder etwas anderes vorbeten und dies in sterilen Testumgebungen auch vorführen können. Selbst wenn das funktioniert, woran ich technisch nicht zweifele, sind diese Umgebungen auch für hochbegabte Administratoren kaum zu verwalten, geschweige denn einigermaßen kostengünstig im Zaum zu halten. In beiden Fällen, SAN und NAS, war, ist und bleibt das Thema Migration auf neue, meist größere Umgebungen ein wochenend- und feiertagevernichtender Albtraum für alle Beteiligten (und ja, ich weiß, auf den Folien der Hersteller beider Welten sieht das seit Jahrzehnten natürlich ganz harmlos aus – ist es aber nicht. Diskussion beendet.) All diese Gegebenheiten werden vor allem Anwender, die auf der »grünen Wiese« anfangen, sofort zu Objektspeichern greifen lassen, weil sie sich all die Einschränkungen von SAN und NAS nicht mehr antun wollen. Und in den Bereichen Cloud-Speicher, Big Data (eigentlich wollte ich diese blödsinnigen Begriffe nicht mehr eintippen) wird kein einigermaßen normaler IT-Manager noch mit SAN oder NAS anfangen wollen.

Das RESTful-API hat hierbei für eine herrliche Vereinfachung der Funktionalitäten gesorgt. Man speichert, liest, speichert oder löscht einen Eintrag, also ein Objekt, welches in den beigeordneten Metadaten unter anderem Informationen zu Erstellungs- und Änderungsdatum, erstellendem oder änderndem Benutzer enthält. Wird ein Objekt geändert, wird das alte behalten und ein neues als weitere Version gespeichert (man wundert sich nicht mehr über den enormen Platzbedarf…). Über die Metadaten werden Objekte dann auch im System gefunden. Dies soll nach Herstellerangaben sogar in den meisten Fällen schneller von Statten gehen als unter Verwendung eines Dateisystems.

Nicht umsonst sagen also Marktforscher (jaja, ich weiß, was ich neulich über die geschrieben habe – aber hier passt es so schön) zwischen 35 und 50 Milliarden Dollar Marktvolumen für 2017 voraus. Immerhin mehr als das doppelte als noch 2014. Dass sich dabei vermutlich der ausgelieferte Plattenplatz in drei Jahren mehr als verdreifacht hat, überrascht nur jemanden, der die letzten zwanzig Jahre nichts mit EDV zu tun hatte.

Also ja, man kann nicht nur, sondern man sollte Objektspeicher sogar in Erwägung ziehen.

Gruß
Doc Storage

Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de
Kommentare (2)
02.12.2016 - cwunder

Dass das mit Objektspeicher was wird, sieht man ja schon daran, dass viele Speicherhersteller ihren Produkten heuer S3-Connectoren spendieren. S3, weil es sich de facto schon fast zum Industriestandard entwickelt hat. So gut wie jede Applikation, die in die Cloud schreibt, spricht heute nun einmal S3 und der Marktanteil ist wohl schon jenseits von 80 Prozent.

Dabei ist es jedoch wichtig zu wissen, dass S3 nicht nur einfache Befehle, wie vom Doc beschrieben, zum speichern, lesen oder löschen unterstützt, sondern ganze 53 zum Teil sehr komplexe Operationen. Viele der Connectoren vieler Plattformen sind tatsächlich sehr rudimentär und können komplexe Operationen gar nicht ausführen. Eine Migration der Daten in der Zukunft wird damit zumindest schwierig.

Wer für Object-Storage auf S3 setzt, muss also genau auf die Kompatibilität achten.

02.12.2016 - LHL

Unabhängig davon, dass Objektspeicher sicher seine Daseinsberechtigung hat, deckt sich meine Berufserfahrung nicht mit der Aussage, dass FC das "am schwierigsten einzurichtende und zu unterhaltende Protokoll überhaupt" ist. Es hängt sicher von der konkreten Umgebung ab - aber Speichernetzwerke sollten immer möglichst einfach strukturiert und flach sein. Dann ist auch die Einrichtung fast ein Kinderspiel und wenn ich sehe, mit welchen Problemen unsere "LAN-Netzwerk-Kollegen" kämpfen, auch der "Unterhalt" bzw. Betrieb. Die Beschaffungskosten für die Komponenten sind allerdings in der Tat nicht "mutig" sondern unverschämt ;)


Mehr von Doc. tec. Storage 07.08.2020 Marktstudien: Ergebnisse meist zu offensichtlich

Marktstudien belegen in der Regel bekannte Trends, mehr nicht. Wirkliche Erkenntnisse oder Neues fördern sie, laut Doc Storage, nicht zu Tage. Dies belegt er anhand zweier aktueller Beispiele: Die Analysekriterien sind schwammig, die Argumente eher fadenscheinig und die Resultate offensichtlich. Zudem sei fragwürdig, in wie weit Sponsoren die Ergebnisse beeinflussen.


31.07.2020 Business-Continuity: Zu viele Firmen unvorbereitet auf K-Fall

Jüngste Studien sprechen von einem steigenden Bewusstsein in Sachen Business-Continuity. Doc Storage kann den Zahlen allerdings wenig positives abgewinnen, denn noch nicht mal zwei Drittel aller Unternehmen besitzen einen Business-Continuity-Plan und fast die Hälfte verfügt über keine fest definierte Rückkehrmaßnahmen. Aus seiner Sicht ist es erschreckend, wie viele Firmen und IT-Abteilungen nicht auf einen Katastrophenfall vorbereitet sind.


24.07.2020 Ist Archiving-to-the-Cloud heute bereits sinnvoll?

Unsere Archivierungs-Hardware bedarf der Erneuerung. Bislang setzten wir auf LTO-6-basierende Tape-Librarys. LTO-7 haben wir bisher übersprungen. Nun stünde LTO-8 an. Aber es gäbe auch Archiving-to-the-Cloud. Macht es Sinn, sich damit ernsthaft zu befassen oder raten Sie weiterhin On-Premises?


17.07.2020 EU/US-Privacy-Shield: Datenaustausch nicht mehr rechtens

Das EuGH erklärt das EU/US-Privacy-Shield für unwirksam. Damit ist die Hauptgrundlage für Datentransfers zwischen der EU und den USA nicht mehr gültig. Für unseren Doc Storage ist dies keine Überraschung, weil jeder klardenkende EU-Bürger wusste, dass die US-Behörden am Schutz unserer Daten nicht wirklich interessiert waren. Lesen Sie hier seine generelle Einschätzung zur Thematik.


10.07.2020 Genderkorrekte IT-Sprache – muss das sein?

Haben Sie sich schon mal Gedanken gemacht, ob unsere IT-Begriffe politisch- bzw. genderkorrekt sind? Gleichstellungsbeauftragte fordern eine neue IT-Sprache, Dummys, Black- und Whitelist oder Master/Slave seien nicht mehr zeitgemäß. Unser Doc ist da eher »Old School«…


03.07.2020 Problem: SSDs mit Trim-Funktion in Disk-Arrays

In einem Synology-RAID macht der Trim-Befehl der eingesetzten SSDs das System nach einer Zeit, unbenutzbar langsam. Abhilfe schafft eine Neuinstallation. Woran liegt das und könnte dies auch mit Enterprise-SSDs in größeren Arrays auftreten?

powered by
Zadara Pure Storage Germany GmbH
Infortrend Fujitsu Technology Solutions GmbH
FAST LTA N-TEC GmbH
Folgen Sie speicherguide.de auch auf unseren Social-Media-Kanälen
Folgen Sie und auf Facebook Folgen Sie und auf YouTube Folgen Sie und auf Twitter