05.12.2014 (Doc Storage)
4 von 5, (3 Bewertungen)

Sinnvolles und effektives Notebook-Backup

Leserfrage: Die Frage klingt vermutlich banal: Wie sichere ich mein Notebook oder PC am sinnvollsten, effektivsten und am sichersten? Die übliche Vorgehensweise, ab und zu die wichtigsten Daten auf eine externe Festplatte zu kopieren, ist ja eigentlich nur eine Notlösung. Dies gilt auch für die mitgelieferte Backup-Software. Daher, wie sieht eine Profisicherung aus?

Sollte die Platte kaputt gehen oder der komplette Rechner, benötige ich einerseits ein schnelles Recovery des Systems sowie eine Wiederherstellung der gespeicherten Daten. Der Sicherungsvorgang sollte, so schnell wie möglich von Statten gehen. Wie viele Backup-Versionen sollte man vorhalten? Für Unternehmens-Backups wird ein Medienbruch empfohlen. Welche Empfehlung gibt es hier für Freiberufler und kleine Büros?

Aktuell ist das Notebook mit einer 1-TByte-HDD ausgestattet, die zirka zu 70 Prozent befüllt ist. Täglich in Benutzung ist das E-Mail-Programm (Outlook) sowie in der Regel diverse Office-Programme.

Antwort Doc Storage:

Wir alle stecken hier im selben Dilemma. Einerseits wollen wir möglichst schnelle Sicherungen und Wiederherstellung, andererseits alle zwei, spätestens drei Jahre neue Hardware, die im konventionellen Falle eine tagelange Neuinstallation des Systems mit sich bringt. Ich könnte hier viele mögliche Szenarien durchspielen, aber der Praktikabilität halber werde ich mich hier auf die Beschreibung meines eigenen Verfahrens beschränken.

Die komplette Neuinstallation nach Verlust oder Anschaffung eines Neugerätes lässt sich relativ leicht umgehen. Ich nutze seit Jahren nur noch die bereits vorhandene Grundinstallation des neuen Systems, um einen Hypervisor zu installieren. In diesem starte ich mein Standardimage, welches alle Programme vorinstalliert und alle benötigten Daten enthält.

Mit diesem Vorgehen habe ich die Installationszeit von mehreren Tagen auf wenige Stunden, wenn überhaupt, reduziert. Das Image sichere ich täglich am Ende der Arbeitszeit, indem ich es einfach auf ein externes NAS-RAID kopiere und ihm im Anschluss einen entsprechenden Namen gebe (Datum und Uhrzeit). Von dort wird es nachts per Scheduler auf ein zweites NAS kopiert (das allerdings nur, weil ich als Speichermensch von Haus aus paranoid bin und eine einzelne Kopie mich nervös macht). Muss ich nun einen neuen Rechner in Betrieb nehmen, installiere ich wie beschrieben den Hypervisor, mounte das entsprechende Laufwerk, hole mir das aktuellste Image und kann sofort weiterarbeiten.

Die Arbeitsdateien schiebe ich inkrementell über ein Public-Domain-Programm in entsprechende Verzeichnisse auf dem primären NAS. Die entsprechenden Verzeichnisse werden alle 15 Minuten durchsucht und Änderungen entsprechend gesichert (bei höherer Paranoia kann man das natürlich auch öfter machen).

Das primäre NAS schiebt seinerseits per Scheduler die geänderten Daten in diesen Verzeichnissen auf das sekundäre System, so dass ich neben den Gesamt-Images auch immer noch alle Arbeiten aktuell habe. So gesehen eine klassische »Quad Copy«.

Die ganz Aufmerksamen unter uns werden jetzt bemerken »jaha, aber da hat man ja keine Versionshaltung oder Generationen von Daten mehr«. Das stimmt. Allerdings habe ich mich bewusst dagegen entschieden, weil ich in den täglich neuen Images die entsprechenden Versionen vorfinden kann. Von denen ich jeweils sieben aufeinanderfolgende und dasjenige vom aktuellen Monatsersten aufbewahre.

Diese Methode hat sich für mich über die Jahre als die praktikabelste herausgestellt, da sie erstens mit Bordmitteln der Betriebssysteme, Hypervisoren und NAS-Systeme auskommt, zweitens so mit optimal geringem Aufwand zu konfigurieren und drittens von jedem anderen System aus ohne den komplexen Einsatz von Bordmitteln verfügbar ist. Mit dieser Methode kann ich dieselbe Arbeitsumgebung tagesaktuell auf beliebig vielen Rechnern nutzen (bei vernünftigen Netzwerkkarten reicht für die tägliche Arbeit auch der Zugriff über das LAN auf die gesicherten Images) und habe den Schrecken der Neuinstallation ein für alle Mal verbannt.

Wer keine zwei NAS-Systeme installieren möchte, der kommt auch mit einem aus, muss sich dann allerdings auf die Wiederherstellungsfähigkeiten des genutzten RAIDs verlassen. Und wer noch mehr russisches Roulette spielen möchte, kann das ganze natürlich auch mit zwei oder gar nur einer externen Festplatte nutzen. Die Methoden bleiben dieselben.

Gruß
Doc Storage

Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de
Kommentare (1)
12.12.2014 - Wolfgang Pschichholz

Interessanter Ansatz!
Leider klappt das nicht bei PCs/Notebooks die Anwendungen installiert haben welche eine direkte Anbindung an Hardware benötigen.

Z.B. wg nötiger hoher graphische Leistung, direkte Anbindung einer Anwendungssoftware an ISDN, mehrere nötige Com oder USB-Schnittstellen um auf externe Geräte zuzugreifen...

Hier benötige ich nach wie vor den uralten Ansatz: "spezielle/hochleistungsfähige" Hardware, darauf direkt das Betriebssystem und Anwendungssoftwareinstallieren.
Das ganze dann Taskgesteuert mit entsprechender (imaging) Backupsoftware auf ein NAS sichern.


Mehr von Doc. tec. Storage 12.04.2019 Dateisysteme für den PByte-Bereich

Datenberge jenseits des PByte-Bereichs, Cloud-Anbindungen und Analytics-Szenarien stellen Dateiysteme vor neue Herausforderungen. Der Markt bietet einige Optionen wie GPFS, Gluster FS, OneFS oder QF2. Worauf gilt es zu achten?


05.04.2019 Neuordnung des Storage-Tiering

Nachdem sich Flash und SSDs mittlerweile auch in mehrere Leistungsklassen unterteilen, steht die Technik nicht mehr nur für Tier 0. 15k-HDDs scheinen vor dem Aus zu stehen. Gilt dies auch für alle SAS-Platten? Wie sieht die Neuordnung des Storage-Tiering aktuell aus?


15.03.2019 30 Jahre World Wide Web: Was gibt es zu feiern?

Das World Wide Web feiert seinen 30. Geburtstag. Ohne dem Internet ist unser heutiges Leben nicht mehr vorstellbar. Für Doc Storage hat das Netz aber auch genug Schattenseiten. An Regulierungen bzw. an das vom Erfinder erhoffte bessere Internet, glaubt er nicht.


08.03.2019 Datenanordnung im RAID 10 mit 8 Platten

In einem Server wird ein RAID 10 mit acht Festplatten unter Windows 2008 R2 betrieben. Nun ist ein Laufwerk ausgefallen. Da sich nur wenige Daten auf den HDDs befinden, besteht die Möglichkeit, dass die defekte Platte eventuell gar keine Daten enthält?


22.02.2019 Welcher RAID-Level für welche Anwendung?

Gibt es eigentliche eine Faustregel, welches RAID-Level für welche Anwendung am besten geeignet ist? Ich denke da zum Beispiel an Datenbanken mit sehr vielen Zugriffen bei relativ kleinen Datenmengen oder an Webserver und als Extrem auf der anderen Seite Bild-Datenbanken, Audio-Server beim Rundfunk, Video-Archive mit sehr hohen Datenvolumen.


15.02.2019 Was sagt DWPD über SSDs aus?

Im Zusammenhang mit (Enterprise-)SSDs wird oft die Qualitätsgröße DWPD (Drive Writes Per Day) genutzt. Meist wird die Angabe auch für einen Zeitraum von fünf Jahren spezifiziert. Was sagt DWPD genau aus und mit welcher Standard-Lebensdauer darf man rechnen?

powered by
Boston Server & Storage Solutions Datacore Software
Fujitsu Technology Solutions GmbH Seagate Technology
N-TEC GmbH FAST LTA AG