30.12.2016 (Doc Storage)
4.8 von 5, (4 Bewertungen)

Lassen sich Daten von einer kaputten SSD noch auslesen?

Leserfrage: Was passiert eigentlich bei einer kaputten SSD oder wenn alle Schreibzyklen ausgeschöpft sind? Die Daten sind doch dann eigentlich noch alle vorhanden. Kann man diese dann zumindest noch lesen? Oder ist die dann schlicht hinüber?

Antwort Doc Storage:

Um es vorweg zu nehmen: Ja, in den meisten Fällen sind die gespeicherten Daten noch in den Zellen auch ermüdeter oder beschädigter SSDs vorhanden. Im Gegensatz zu rotierenden Platten, wo sich zusammenhängende Informationen meist durch die Anordnung auf dem Speichermedium rekonstruieren lassen, ist dies bei ausgefallenen oder beschädigten Festspeichermedien jedoch beliebig komplizierter. Hier nutzen die Hersteller eine Vielzahl unterschiedlicher Controllertypen, um die zu speichernden Daten über die freien bzw. zum Überschreiben freigegebenen Zellen zu verteilen. Man benötigt zur Rekonstruktion also eine exakte Emulation der jeweils im Laufwerk vorhandenen Logik. Leider sind diese Emulationen nur bei auf Datenrettung spezialisierte Unternehmen zu finden, und deren Nutzung kostet oft weit mehr als die zu rettenden Daten überhaupt Wert sind.

Klassische Clone-Tools, wie sie von herkömmlichen Festplatten mit ihrer Aufteilung in Zylinder bekannt sind, nützen hier wenig bis überhaupt nichts. Die Verteilung der zu speichernden Informationen geht in SSDs auf gänzlich andere Weise vonstatten, nämlich Zelle für Zelle.

Beim Einsatz von SSDs empfiehlt sich also, wie in jeder anderen Umgebung auch, ein Backup in möglichst kleinen Intervallen, um den Schaden bei ermüdeten oder beschädigten Festspeichermedien so gering wie möglich zu halten. Es gibt aber auch hier »abers«, die den Schrecken eines solchen Szenarios deutlich relativieren. Erstes »aber«: Moderne SSDs bekommen von ihren Herstellern eine Betriebsdauer von bis zu zwei Millionen Stunden garantiert, und dies zusammen mit der Möglichkeit, den gesamten vorhandenen Speicher bis zu 75 Mal komplett zu überschreiben. Das bedeutet, dass das Laufwerk selbst theoretisch bis zu 230 Jahre hält, und dass in dieser Zeit beispielsweise in eine 500-GByte-SSD fast 40 TByte hineingeschrieben werden können.

Bei einer realen Nutzung von »nur« fünf Jahren bedeutet dies weiter, dass knapp 30 GByte hineingeschrieben werden können – Tag für Tag. Ich erlaube mir die Frage, in welcher auch hochtransaktionalen Umgebung solche Belastungen überhaupt auftreten?

Und zweites »aber«: Jeder Hersteller liefert entsprechende Werkzeuge mit, die die jeweiligen Laufwerke überprüfen und schon weit vor dem ermüdungsbedingten Ausfall bekanntgeben, dass die SSD gegen eine neue ausgetauscht werden sollte.

Der Schrecken des Ausfalls kann bei keinem Gerät, das von Menschen gemacht wurde, ganz ausgeschaltet werden – dagegen gibt es wie erwähnt nur ein Mittel, und das heißt Backup. Der Schrecken der Ermüdung ist eigentlich gar keiner, wenn man sich die theoretisch möglichen Schreibwerte anschaut, und wenn man die von den Herstellern mitgelieferten Werkzeuge richtig und nachhaltig nutzt.

Gruß
Doc Storage


Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de

Mehr von Doc. tec. Storage 17.05.2019 NAS-Caching oder Tiering für VMs multiple Zugriffe?

In einer Lehrumgebung werden virtuellen Maschinen auf einem NAS mit 10GbE-Anbindung gespeichert. Nachdem eine Erweiterung mit NVMe-Flash ansteht, stellt sich die Frage, ob eine Caching- oder eine Tiering-Konfiguration die sinnvollere Wahl ist?


10.05.2019 Wird Flash nun auch zum Backup-Medium?

Flash wird zunehmend auch für Backup interessant. Der Geschwindigkeitsvorteil soll die Dauer der Sicherung wie auch der Wiederherstellung reduzieren. Macht dies in der Praxis bereits Sinn – auch aus Kostensicht?


03.05.2019 Unterschied zwischen Active/Active und Active/Passive

Beim Thema Hochverfügbarkeit unterscheidet man zwischen Konfigurationen, die Active/Active bzw. Active/Passive agieren. Was ist genau der Unterschied und für welche Szenarien empfehlen sich die beiden Möglichkeiten? Welche Cluster-Architektur bietet hinsichtlich Skalierbarkeit mehr Spielraum für zukünftigen Lastzunahmen?


26.04.2019 Dateisysteme für den PByte-Bereich

Datenberge jenseits des PByte-Bereichs, Cloud-Anbindungen und Analytics-Szenarien stellen Dateiysteme vor neue Herausforderungen. Der Markt bietet einige Optionen wie GPFS, Gluster FS, OneFS oder QF2. Worauf gilt es zu achten? Update zu CephFS und ZFS.


05.04.2019 Neuordnung des Storage-Tiering

Nachdem sich Flash und SSDs mittlerweile auch in mehrere Leistungsklassen unterteilen, steht die Technik nicht mehr nur für Tier 0. 15k-HDDs scheinen vor dem Aus zu stehen. Gilt dies auch für alle SAS-Platten? Wie sieht die Neuordnung des Storage-Tiering aktuell aus?


15.03.2019 30 Jahre World Wide Web: Was gibt es zu feiern?

Das World Wide Web feiert seinen 30. Geburtstag. Ohne dem Internet ist unser heutiges Leben nicht mehr vorstellbar. Für Doc Storage hat das Netz aber auch genug Schattenseiten. An Regulierungen bzw. an das vom Erfinder erhoffte bessere Internet, glaubt er nicht.

powered by
Boston Server & Storage Solutions Datacore Software
Itiso GmbH Seagate Technology
N-TEC GmbH FAST LTA AG
Fujitsu Technology Solutions GmbH Pure Storage