Doc Storage - 2011


30.12.2011

Wie stark wird Lustre tatsächlich eingesetzt?

Es gibt doch diese Linux-Clustering-Technologie »Lustre«. Laut etlichen Meldungen hier auf speicherguide.de scheint es im High-Performance-Computing-Umfeld (HPC) immer öfters eingesetzt zu werden. Was ist das Besondere an Lustre? Und wie stark wird es tatsächlich eingesetzt?


23.12.2011

Bringt FCoE Vorteile gegenüber iSCSI?

Fibre-Channel-over-Ethernet soll sich nach dem Willen der Hersteller flächendeckend in Rechenzentren etablieren. Gibt es aber signifikante Vorteile gegenüber iSCSI oder ist es ratsamer mit der Implementierung noch zu warten?


16.12.2011

Welche Vorteile bringt SMB 2.2 für den Hyper-V

Die Version 2.2 des SMB-Protokolls (Server Message Block) bringt Vorteile für den Einsatz mit der Virtualisierungs-Plattform »Hyper-V«. Wie sehen die wichtigsten Verbesserungen des Protokolls aus, und wie werden die Anbieter von NAS-Systemen hier mitspielen?


09.12.2011

Was ist Wear Leveling?

Damit eine SSD lange hält, sollten die Speicherblöcke möglichst gleichmäßig benutzt werden. Die Wear-Leveling-Funktion verschiebt fest installierten Programmen, damit diese nicht immer auf ein und denselben Blöcken verweilen, oder? Wie funktioniert das?


02.12.2011

Warum tut sich GPFS so schwer?

Das »General Parallel File System« (GPFS) soll sich besonders für Big-Data-Anwendungen eignen. Außer IBM engagiert bislang noch kein größerer Hersteller. Die Ursprünge entstammen der Unix-Welt, proprietär wäre GPFS daher nicht. Oder?


25.11.2011

Einschränkungen bei Virtuelle Storage Appliance

Mit »vSphere 5« hat Vmware die »VSA« (Virtual Storage Appliance) vorgestellt. Damit soll kleinen virtualisierten IT-Infrastrukturen ein gemeinsamer Speicher vorgegaukelt werden. Welche technischen Einschränkungen bringt dieses Konzept mit sich und wo sollte man dann doch besser auf ein SAN zurückgreifen?


18.11.2011

Partition-Alignment und 4-KByte-Blöcke

Nutzten Harddisks früher eine Blockgröße von 512 Byte, arbeiten sie nun mit 4-KByte-Blöcken. Werden ältere System auf neue Betriebssysteme migriert oder auf SSDs umgezogen, führt dies zu einer Falschausrichtung und zu Geschwindigkeitseinbußen. Was tun und wie erkennt man, ob die Festplatte 4K-Blöcke verwendet?


Das Datenwachstum oder die Ursachen bekämpfen?

Im Zusammenhang mit Big Data ist die Datenintegration einer der Problemherde. Herstellern zufolge gelte es nun seine Strategie zu überdenken und schlussendlich auf ETL-Tools zu setzen. Lassen sich damit wirklich die Speicherkosten um bis zu 90 Prozent senken? Wäre es nicht richtiger das Speichern unwichtiger Daten zu verhindern?

Was ist Disaster-Avoidance?

Im Rahmen der Ausfallsicherheit beschwört man immer wieder Begriffe wie Disaster Recovery. Vor kurzem hab ich den Begriff »Disaster Avoidance« gesehen und möchte gern wissen, was das ist und inwiefern sich das vom Disaster Recovery unterscheidet oder ob dieses dadurch überflüssig wird?

Was ist unter Big Data zu verstehen?

In den Marketing-Aktivitäten der Storage-Hersteller wird zunehmend der Begriff Big Data verwendet. Letztendlich geht es wohl um das Handling großer Datenmengen. Aber ist das nicht eher ein Analysethema? Was hat Big Data mit Storage zu tun, worauf gilt es bei der Speicherung zu achten? Was muss ein Speichersystem oder eine Storage-Strategie können, um für Big Data gerüstet zu sein?

Sicherheit von Consumer-NAS-Systemen

Wenn man einen NAS-Server aus der Consumer/SoHo-Klasse an einem handelsüblichen Router betreibt, ist das Speichersystem dann Hackern schutzlos ausgeliefert? Worauf sollte man als Anwender achten? Welche Abwehrmaßnahmen empfehlen sich?

Leistungstest von Speichersystemen

Leistungstests von Speichersystemen stellen IT-Abteilungen oft nicht zufrieden. Die angegeben Spezifikationswerte werden eigentlich nie erreicht. Lässt sich tatsächlich nicht mehr Leistung erzielen oder sind eventuell noch Stellschrauben vorhanden?

Schnelleres NAS mit Port-Trunking?

Mittlerweile können auch Consumer-NAS-Systeme zwei Leitungen bündeln und wie eine nutzen. Dies soll Bandbreite und Geschwindigkeit erhöhen. Was bringt dies in der Praxis und welche Voraussetzungen sind hierfür nötig?

Lässt sich mit DAS die Cloud-Performance verbessern?

Alle reden von Big Data und dies natürlich in der Cloud oder in anderen Netzwerken. Allerdings kämpfen wir hier mit Bandbreiten- und Performance-Herausforderungen. Wie kann man diese Probleme lösen? Könnte dies eine Renaissance des DAS bedeuten? Immerhin würden direkt angeschlossene Systeme dedizierte Leistung bringen.

Die Vor- und Nachteile von SAS-Switching

SAS-Switches ermöglichen unter anderem die redundante Anbindung von Rechnern und Speichern. Bei einer herkömmlichen SAS-Verbindung ist dies nicht machbar. Lässt sich SAS-Switching dadurch auch als SAN-Alternative betrachten?

Integrierte und virtualisierte Speicherlösung

Die großen Storage-Hersteller optimieren ihre Plattformen zunehmend für Vmware. Doch sind solche Lösungen wirklich von Vorteil und gewinnbringend oder sollte man als IT-Abteilung nicht lieber auf eine integrierte Computerlösung warten, die sämtliche vereint, statt einfach alles in einen Topf zu schmeißen, schütteln und hoffen?

Speichersysteme für Videoüberwachung

Eignen sich eigentlich nicht alle Speichersysteme für den Einsatz mit Videoüberwachungs-Kameras? Was muss ein Speichersystem mitbringen, damit man es in solchen Umgebungen nutzen kann? Sollte es dann ausschließlich diesen Daten vorbehalten sein oder ist auch eine »homogene« Datensammlung machbar?

Lässt sich die Formatier-Geschwindigkeit beschleunigen?

Das Formatieren von TByte-Festplatten oder RAIDs dauert mittlerweile mehrere Stunden, bis der Vorgang komplett abgeschlossen ist. Geht das zum Beispiel bei einer Thunderbolt-Disk schneller? Oder dauert das gleich lang, weil das nur ein Befehl an die Platte ist und diese dann alles selber macht?

Space-Reclaiming: Muss man auf die Chunk-Größe achten?

Beim Space-Reclaiming bei Thin-Provisioning überbieten sich die Hersteller bei der Größe respektive kleinen Größe der zurückgeholten Bits. Beispielsweise holen sich EMC und HP frei gewordenen Speicherplatz aus in 16- bzw. 768-KByte-Häppchen zurück. Muss der EDV-Verantwortliche auf die Chunk-Größe beim Reclaim achten oder sollte das Ganze nicht eher automatisiert und transparent erfolgen?

Mogelpackung USB 3.0 und externe Festplatten?

Die Schnittstellen selbst versprechen einen Datendurchsatz von 35 (USB 2.0) bis hin zu 130 MByte/s (USB 3.0). Doch können Festplatten diese Transferraten überhaupt schnell genug auf das Medium schreiben? Rentiert sich eine schnellere Schnittstelle überhaupt oder sind USB 3.0 und Konsorten nur für Flash-Speicher sinnvoll?

Fehlererkennung bei SSDs

Gibt es schon ein herstellerunabhängiges Tool, um fehlerhafte Bereiche einer SSD zu erkennen? Oder macht das gar keinen Sinn, weil der Controller auf der SSD schon die eventuell defekten Blöcke ausblendet? Oder erfolgt dies auf der Basis von einzelnen Zellen?

Wieviel Kühlung benötigen Speichersysteme?

Die Kosten für Kühlung und Klimaanlage sind ein ernstzunehmender Posten in den Betriebsausgaben von Speichersystemen. Wieviel Kühlung ist in der Praxis nötig? Welche Einsparungen sind möglich und sinnvoll?

Zero-Space-Reclaim II: Das Problem mit den Nullen

Zero-Space-Reclaim unterstützt Thin-Provisioning darin, virtuell belegten Speicherplatz wieder zur Verfügung zu stellen. Allerdings ist nicht immer eindeutig zu erkennen, welche Bereiche tatsächlich abgetrennt werden können. Daher ist zum Teil der Unterschied unklar, ob beim speichern eines Blockes die Nullen innerhalb der genutzten Daten liegen oder sich irgendwo auf der LUN sich befinden und durch keine aktiven Daten referenziert werden.

Wie funktioniert Zero-Space-Reclaim?

Zero-Space-Reclaim hilft nicht mehr genutzten Speicherplatz einem virtualisierten Storage-Pool zurückzugeben. Wie genau funktioniert diese Technik? Kann man sich in der Praxis bereits auf die Funktionstüchtigkeit dieser Funktion verlassen?

WORM: Welche Technologie ist am sinnvollsten?

Archive benötigen eine WORM-Funktion. Das heißt, einmal geschriebene Daten dürfen nicht mehr veränderbar sein. Mittlerweile sind alle bekannten Datenträger als WORM ausgestattet. Seit neuestem auch RDX. Doch sind die Ansätze auch sicher und welche Technologie ist am sinnvollsten?

NAS im Eigenbau eine Alternative zu Business-Systemen?

NAS-Systeme für Consumer und den Einstiegsbereich sind bereits ab wenige hundert Euro erhältlich. Die geringen Anschaffungskosten gehen jedoch mit einer geringen Performance einher. Professionelle Systeme Arrays kosten in etwa das Dreifache. Ist der Selbstbau mit Standardkomponenten eine Alternative?

Was bedeutet Application-Awareness?

Gibt es tatsächlich Speichersysteme, die die speziellen Eigenheiten einzelner Anwendungen erkennen und diese verarbeiten können? Was machen diese Arrays anders? Gibt es Alternativen zum Application-Awareness-Ansatz?

Was ist unter Scale-out zu verstehen?

Einige Hersteller betiteln ihre Systeme als Scale-out-Speicher. Was muss man sich darunter vorstellen? Steckt tatsächlich etwas besonderes dahinter oder handelt es sich doch nur um eine Wortschöpfung aus dem Marketing-Bereich?

Was leistet CDP und was nicht?

Mit Snapshots oder mit sehr kurzen Backup-Intervallen kann man seine Datensicherung auf einem aktuellen Stand halten. Trotzdem bleiben Lücken. Eine Lösung scheint CDP (Continuous-Data-Protection) zu sein. Hat dieser Ansatz mittlerweile Praxisreife erreicht? Was spricht Ihrer Ansicht nach für bzw. gegen CDP? Gibt es eine Alternative zu CDP?

Genügen günstige SATA-RAIDs für Disk-Backup?

Muss es wirklich ein spezielles Disk-Backup-System von einem der bekannten Hersteller sein? Genügt nicht auch ein relativ einfaches SATA-RAID, gepaart mit einer aktuellen Backup-Software? Worauf sollte man bei der Wahl eines Disk-Backup-System besonders achten?

Was ist eine Public-Cloud?

Das Thema Cloud ist allgegenwärtig. Was aber ist eigentlich genau eine Public-Cloud? Steckt mehr dahinter als eine virtualisierte Speicherumgebung mit bestimmten Zugriffsrechten?

Was ist Dynamic-Provisioning?

Nach Thin-Provisioning wird nun zunehmend von Dynamic-Provisioning gesprochen. Wo liegt genau der Unterschied der beiden Techniken? Werden beide Ansätze künftig parallel bestehen oder wird die dynamische Version Thin-Provisioning ablösen bzw. welche Technik eignet sich für welche Anforderungen?

Was ist Volume-Rethinning?

Werden Daten aus einem Storage-Pool gelöscht bedeutet das nicht, dass auch der komplette Speicherplatz wieder zur Verfügung steht. Oft genug bleiben Fragmente auf dem Datenträger zurück. Eine Technik, die diesem Übel entgegen wirkt ist »Volume Rethinning«. Was steckt genau dahinter?

Schnelle Speicher mit SAS-Festplatten

Mehrere Server benötigen Speicher mit 20 TByte Kapazität. Die Anforderung: Der Speicher soll möglichst schnell sein. Wobei I/O und Durchsatz gleichermaßen gefordert sind. Ein Teil läuft als Backup-Server. Hier gilt es möglichst viele Daten pro Stunden wegzuschreiben. Welche Festplatten-Technologie ist hierfür am sinnvollsten?

Warum sind Einsteiger-NAS-Systeme so langsam?

Daten von einem für den Heimeinsatz konzipierten NAS bzw. RAID auf ein neues System zu übertragen kann dauern. In der Praxis sind meist nicht mehr als 30 bis 50 MByte/s möglich. Warum sind SoHo-Arrays so langsam?

Wie funktioniert Online-Kapazitätserweiterung?

Disk-Arrays müssen immer online sein, Stillstandzeiten sind verpönt. Dies gilt auch, wenn eine bestehende Konfiguration um zusätzlichen Speicherplatz erweitert werden soll. Moderne Systeme verfügen hierzu über eine Online-Kapazitätserweiterung. Doch wie funktioniert diese und arbeitet sie in der Praxis auch zuverlässig?

Sinnvolle Migration von Speichersystemen

In einer mit Vmware virtualisierten Server-Umgebung sollen die in die Jahre gekommenen Storage-Systeme erneuert werden. Dabei gilt es einen Datenbestand von rund 50 TByte zu migrieren. Gibt es eine Möglichkeit diesen Prozess zu beschleunigen? Wo liegt üblicherweise der Flaschenhals?

Sind hochintegrierte Speichersysteme sinnvoll?

Bei Herstellern geht der Trend dazu, möglichst viel in ein System zu integrieren. Dies beginnt beim Rechner, geht über den Speicher und dem Netzwerk, bis hin zur Virtualisierungs-Software. Was bringt dieser Ansatz und ist mit weiteren Lösungen in diesem Segment zu rechnen?

Behörden als böse Datensammler?

Deutschland droht eine neue Volkszählung. Als Datensammler treten größtenteils Behörden und die Bundesagentur für Arbeit auf. IT-Praktiker befürchten, dass bisher abgeschottete Datenspeicher nun geöffnet und an Dritte weitergegeben werden.

Was ist Unified-Storage?

Speicherhersteller sehen Unified-Storage als Synonym für ein flexibles und offenes Storage-System. Die genaue Definition verschwimmt jedoch von Anbieter zu Anbieter und auch die Vor- und Nachteile sind längst nicht so eindeutig wie es das Marketing verspricht.

Arrays mit 3,5-Zoll-Festplatten – noch zeitgemäß?

Immer mehr Speicheranbieter schwenken auf 2,5-Zoll-Laufwerke mit SAS-Backend um. Aber es gibt immer noch Angebote mit 3,5-Zoll-Festplatten und Fibre-Channel-Backend. Sind die Systeme mit den größeren Laufwerken nicht inzwischen veraltet, das heißt, sollte man diese nicht mehr für einen Neukauf in Erwägung ziehen?

Wie sinnvoll ist Storage-Tiering auf der Festplatte?

Es gibt Speicherhersteller, die ein Storage-Tiering direkt auf der Platte selbst umsetzen. Hier werden also die so genannten heißen Daten auf den äußeren Plattenplatz geschrieben, die kalten, weniger benutzen Informationen auf den Inneren Disk-Bereich. Ist dies wirklich eine nutzbringende Methode, die Daten entsprechend der Zugriffszahlen auf Speicherplatz zu verteilen?

Firewall bricht Backup ab – was tun?

In einem kleinen Rechenzentrum bricht die Firewall gelegentlich den Backup-Vorgang in der Nacht ab. Gibt es eine Möglichkeit, das Backup wieder automatisiert aufzunehmen?

Welchen Nutzen verspricht Thunderbolt?

Intels neue Thunderbolt-Technologie verspricht Transferraten von bis zu zehn Gbit/s. Doch noch lässt sich die Unterstützung der proprietären Schnittstelle als spärlich bezeichnen. Welchen neuen Möglichkeiten werden sich im Speicherbereich damit künftig ergeben?

Welche Aussagekraft hat der SPC-Benchmark?

Storage-Hersteller brüsten sich gerne mit irgendwelchen Erfolgen im SPC-Benchmark. Die IT-Strukturen und I/O-Anforderungen variieren in der Praxis aber sehr deutlich. Was macht dieser Test eigentlich und hat er für Unternehmen überhaupt einen praktischen Nutzen?


Alle Artikel aus:  2017  2016  2015  2014  2013