Doc Storage - 2011


30.12.2011

Wie stark wird Lustre tatsächlich eingesetzt?

Es gibt doch diese Linux-Clustering-Technologie »Lustre«. Laut etlichen Meldungen hier auf speicherguide.de scheint es im High-Performance-Computing-Umfeld (HPC) immer öfters eingesetzt zu werden. Was ist das Besondere an Lustre? Und wie stark wird es tatsächlich eingesetzt?


23.12.2011

Bringt FCoE Vorteile gegenüber iSCSI?

Fibre-Channel-over-Ethernet soll sich nach dem Willen der Hersteller flächendeckend in Rechenzentren etablieren. Gibt es aber signifikante Vorteile gegenüber iSCSI oder ist es ratsamer mit der Implementierung noch zu warten?


16.12.2011

Welche Vorteile bringt SMB 2.2 für den Hyper-V

Die Version 2.2 des SMB-Protokolls (Server Message Block) bringt Vorteile für den Einsatz mit der Virtualisierungs-Plattform »Hyper-V«. Wie sehen die wichtigsten Verbesserungen des Protokolls aus, und wie werden die Anbieter von NAS-Systemen hier mitspielen?


09.12.2011

Was ist Wear Leveling?

Damit eine SSD lange hält, sollten die Speicherblöcke möglichst gleichmäßig benutzt werden. Die Wear-Leveling-Funktion verschiebt fest installierten Programmen, damit diese nicht immer auf ein und denselben Blöcken verweilen, oder? Wie funktioniert das?


02.12.2011

Warum tut sich GPFS so schwer?

Das »General Parallel File System« (GPFS) soll sich besonders für Big-Data-Anwendungen eignen. Außer IBM engagiert bislang noch kein größerer Hersteller. Die Ursprünge entstammen der Unix-Welt, proprietär wäre GPFS daher nicht. Oder?


25.11.2011

Einschränkungen bei Virtuelle Storage Appliance

Mit »vSphere 5« hat Vmware die »VSA« (Virtual Storage Appliance) vorgestellt. Damit soll kleinen virtualisierten IT-Infrastrukturen ein gemeinsamer Speicher vorgegaukelt werden. Welche technischen Einschränkungen bringt dieses Konzept mit sich und wo sollte man dann doch besser auf ein SAN zurückgreifen?


18.11.2011

Partition-Alignment und 4-KByte-Blöcke

Nutzten Harddisks früher eine Blockgröße von 512 Byte, arbeiten sie nun mit 4-KByte-Blöcken. Werden ältere System auf neue Betriebssysteme migriert oder auf SSDs umgezogen, führt dies zu einer Falschausrichtung und zu Geschwindigkeitseinbußen. Was tun und wie erkennt man, ob die Festplatte 4K-Blöcke verwendet?


Das Datenwachstum oder die Ursachen bekämpfen?

Im Zusammenhang mit Big Data ist die Datenintegration einer der Problemherde. Herstellern zufolge gelte es nun seine Strategie zu überdenken und schlussendlich auf ETL-Tools zu setzen. Lassen sich damit wirklich die Speicherkosten um bis zu 90 Prozent senken? Wäre es nicht richtiger das Speichern unwichtiger Daten zu verhindern?

Was ist Disaster-Avoidance?

Im Rahmen der Ausfallsicherheit beschwört man immer wieder Begriffe wie Disaster Recovery. Vor kurzem hab ich den Begriff »Disaster Avoidance« gesehen und möchte gern wissen, was das ist und inwiefern sich das vom Disaster Recovery unterscheidet oder ob dieses dadurch überflüssig wird?

Was ist unter Big Data zu verstehen?

In den Marketing-Aktivitäten der Storage-Hersteller wird zunehmend der Begriff Big Data verwendet. Letztendlich geht es wohl um das Handling großer Datenmengen. Aber ist das nicht eher ein Analysethema? Was hat Big Data mit Storage zu tun, worauf gilt es bei der Speicherung zu achten? Was muss ein Speichersystem oder eine Storage-Strategie können, um für Big Data gerüstet zu sein?

Sicherheit von Consumer-NAS-Systemen

Wenn man einen NAS-Server aus der Consumer/SoHo-Klasse an einem handelsüblichen Router betreibt, ist das Speichersystem dann Hackern schutzlos ausgeliefert? Worauf sollte man als Anwender achten? Welche Abwehrmaßnahmen empfehlen sich?

Leistungstest von Speichersystemen

Leistungstests von Speichersystemen stellen IT-Abteilungen oft nicht zufrieden. Die angegeben Spezifikationswerte werden eigentlich nie erreicht. Lässt sich tatsächlich nicht mehr Leistung erzielen oder sind eventuell noch Stellschrauben vorhanden?

Schnelleres NAS mit Port-Trunking?

Mittlerweile können auch Consumer-NAS-Systeme zwei Leitungen bündeln und wie eine nutzen. Dies soll Bandbreite und Geschwindigkeit erhöhen. Was bringt dies in der Praxis und welche Voraussetzungen sind hierfür nötig?

Lässt sich mit DAS die Cloud-Performance verbessern?

Alle reden von Big Data und dies natürlich in der Cloud oder in anderen Netzwerken. Allerdings kämpfen wir hier mit Bandbreiten- und Performance-Herausforderungen. Wie kann man diese Probleme lösen? Könnte dies eine Renaissance des DAS bedeuten? Immerhin würden direkt angeschlossene Systeme dedizierte Leistung bringen.

Die Vor- und Nachteile von SAS-Switching

SAS-Switches ermöglichen unter anderem die redundante Anbindung von Rechnern und Speichern. Bei einer herkömmlichen SAS-Verbindung ist dies nicht machbar. Lässt sich SAS-Switching dadurch auch als SAN-Alternative betrachten?

Integrierte und virtualisierte Speicherlösung

Die großen Storage-Hersteller optimieren ihre Plattformen zunehmend für Vmware. Doch sind solche Lösungen wirklich von Vorteil und gewinnbringend oder sollte man als IT-Abteilung nicht lieber auf eine integrierte Computerlösung warten, die sämtliche vereint, statt einfach alles in einen Topf zu schmeißen, schütteln und hoffen?

Speichersysteme für Videoüberwachung

Eignen sich eigentlich nicht alle Speichersysteme für den Einsatz mit Videoüberwachungs-Kameras? Was muss ein Speichersystem mitbringen, damit man es in solchen Umgebungen nutzen kann? Sollte es dann ausschließlich diesen Daten vorbehalten sein oder ist auch eine »homogene« Datensammlung machbar?

Lässt sich die Formatier-Geschwindigkeit beschleunigen?

Das Formatieren von TByte-Festplatten oder RAIDs dauert mittlerweile mehrere Stunden, bis der Vorgang komplett abgeschlossen ist. Geht das zum Beispiel bei einer Thunderbolt-Disk schneller? Oder dauert das gleich lang, weil das nur ein Befehl an die Platte ist und diese dann alles selber macht?

Space-Reclaiming: Muss man auf die Chunk-Größe achten?

Beim Space-Reclaiming bei Thin-Provisioning überbieten sich die Hersteller bei der Größe respektive kleinen Größe der zurückgeholten Bits. Beispielsweise holen sich EMC und HP frei gewordenen Speicherplatz aus in 16- bzw. 768-KByte-Häppchen zurück. Muss der EDV-Verantwortliche auf die Chunk-Größe beim Reclaim achten oder sollte das Ganze nicht eher automatisiert und transparent erfolgen?

Mogelpackung USB 3.0 und externe Festplatten?

Die Schnittstellen selbst versprechen einen Datendurchsatz von 35 (USB 2.0) bis hin zu 130 MByte/s (USB 3.0). Doch können Festplatten diese Transferraten überhaupt schnell genug auf das Medium schreiben? Rentiert sich eine schnellere Schnittstelle überhaupt oder sind USB 3.0 und Konsorten nur für Flash-Speicher sinnvoll?

Fehlererkennung bei SSDs

Gibt es schon ein herstellerunabhängiges Tool, um fehlerhafte Bereiche einer SSD zu erkennen? Oder macht das gar keinen Sinn, weil der Controller auf der SSD schon die eventuell defekten Blöcke ausblendet? Oder erfolgt dies auf der Basis von einzelnen Zellen?

Wieviel Kühlung benötigen Speichersysteme?

Die Kosten für Kühlung und Klimaanlage sind ein ernstzunehmender Posten in den Betriebsausgaben von Speichersystemen. Wieviel Kühlung ist in der Praxis nötig? Welche Einsparungen sind möglich und sinnvoll?

Zero-Space-Reclaim II: Das Problem mit den Nullen

Zero-Space-Reclaim unterstützt Thin-Provisioning darin, virtuell belegten Speicherplatz wieder zur Verfügung zu stellen. Allerdings ist nicht immer eindeutig zu erkennen, welche Bereiche tatsächlich abgetrennt werden können. Daher ist zum Teil der Unterschied unklar, ob beim speichern eines Blockes die Nullen innerhalb der genutzten Daten liegen oder sich irgendwo auf der LUN sich befinden und durch keine aktiven Daten referenziert werden.


Alle Artikel aus:  2016  2015  2014  2013  2012