05.12.2014 (Doc Storage)
4 von 5, (3 Bewertungen)

Sinnvolles und effektives Notebook-Backup

Leserfrage: Die Frage klingt vermutlich banal: Wie sichere ich mein Notebook oder PC am sinnvollsten, effektivsten und am sichersten? Die übliche Vorgehensweise, ab und zu die wichtigsten Daten auf eine externe Festplatte zu kopieren, ist ja eigentlich nur eine Notlösung. Dies gilt auch für die mitgelieferte Backup-Software. Daher, wie sieht eine Profisicherung aus?

Sollte die Platte kaputt gehen oder der komplette Rechner, benötige ich einerseits ein schnelles Recovery des Systems sowie eine Wiederherstellung der gespeicherten Daten. Der Sicherungsvorgang sollte, so schnell wie möglich von Statten gehen. Wie viele Backup-Versionen sollte man vorhalten? Für Unternehmens-Backups wird ein Medienbruch empfohlen. Welche Empfehlung gibt es hier für Freiberufler und kleine Büros?

Aktuell ist das Notebook mit einer 1-TByte-HDD ausgestattet, die zirka zu 70 Prozent befüllt ist. Täglich in Benutzung ist das E-Mail-Programm (Outlook) sowie in der Regel diverse Office-Programme.

Antwort Doc Storage:

Wir alle stecken hier im selben Dilemma. Einerseits wollen wir möglichst schnelle Sicherungen und Wiederherstellung, andererseits alle zwei, spätestens drei Jahre neue Hardware, die im konventionellen Falle eine tagelange Neuinstallation des Systems mit sich bringt. Ich könnte hier viele mögliche Szenarien durchspielen, aber der Praktikabilität halber werde ich mich hier auf die Beschreibung meines eigenen Verfahrens beschränken.

Die komplette Neuinstallation nach Verlust oder Anschaffung eines Neugerätes lässt sich relativ leicht umgehen. Ich nutze seit Jahren nur noch die bereits vorhandene Grundinstallation des neuen Systems, um einen Hypervisor zu installieren. In diesem starte ich mein Standardimage, welches alle Programme vorinstalliert und alle benötigten Daten enthält.

Mit diesem Vorgehen habe ich die Installationszeit von mehreren Tagen auf wenige Stunden, wenn überhaupt, reduziert. Das Image sichere ich täglich am Ende der Arbeitszeit, indem ich es einfach auf ein externes NAS-RAID kopiere und ihm im Anschluss einen entsprechenden Namen gebe (Datum und Uhrzeit). Von dort wird es nachts per Scheduler auf ein zweites NAS kopiert (das allerdings nur, weil ich als Speichermensch von Haus aus paranoid bin und eine einzelne Kopie mich nervös macht). Muss ich nun einen neuen Rechner in Betrieb nehmen, installiere ich wie beschrieben den Hypervisor, mounte das entsprechende Laufwerk, hole mir das aktuellste Image und kann sofort weiterarbeiten.

Die Arbeitsdateien schiebe ich inkrementell über ein Public-Domain-Programm in entsprechende Verzeichnisse auf dem primären NAS. Die entsprechenden Verzeichnisse werden alle 15 Minuten durchsucht und Änderungen entsprechend gesichert (bei höherer Paranoia kann man das natürlich auch öfter machen).

Das primäre NAS schiebt seinerseits per Scheduler die geänderten Daten in diesen Verzeichnissen auf das sekundäre System, so dass ich neben den Gesamt-Images auch immer noch alle Arbeiten aktuell habe. So gesehen eine klassische »Quad Copy«.

Die ganz Aufmerksamen unter uns werden jetzt bemerken »jaha, aber da hat man ja keine Versionshaltung oder Generationen von Daten mehr«. Das stimmt. Allerdings habe ich mich bewusst dagegen entschieden, weil ich in den täglich neuen Images die entsprechenden Versionen vorfinden kann. Von denen ich jeweils sieben aufeinanderfolgende und dasjenige vom aktuellen Monatsersten aufbewahre.

Diese Methode hat sich für mich über die Jahre als die praktikabelste herausgestellt, da sie erstens mit Bordmitteln der Betriebssysteme, Hypervisoren und NAS-Systeme auskommt, zweitens so mit optimal geringem Aufwand zu konfigurieren und drittens von jedem anderen System aus ohne den komplexen Einsatz von Bordmitteln verfügbar ist. Mit dieser Methode kann ich dieselbe Arbeitsumgebung tagesaktuell auf beliebig vielen Rechnern nutzen (bei vernünftigen Netzwerkkarten reicht für die tägliche Arbeit auch der Zugriff über das LAN auf die gesicherten Images) und habe den Schrecken der Neuinstallation ein für alle Mal verbannt.

Wer keine zwei NAS-Systeme installieren möchte, der kommt auch mit einem aus, muss sich dann allerdings auf die Wiederherstellungsfähigkeiten des genutzten RAIDs verlassen. Und wer noch mehr russisches Roulette spielen möchte, kann das ganze natürlich auch mit zwei oder gar nur einer externen Festplatte nutzen. Die Methoden bleiben dieselben.

Gruß
Doc Storage

Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de
Kommentare (1)
12.12.2014 - Wolfgang Pschichholz

Interessanter Ansatz!
Leider klappt das nicht bei PCs/Notebooks die Anwendungen installiert haben welche eine direkte Anbindung an Hardware benötigen.

Z.B. wg nötiger hoher graphische Leistung, direkte Anbindung einer Anwendungssoftware an ISDN, mehrere nötige Com oder USB-Schnittstellen um auf externe Geräte zuzugreifen...

Hier benötige ich nach wie vor den uralten Ansatz: "spezielle/hochleistungsfähige" Hardware, darauf direkt das Betriebssystem und Anwendungssoftwareinstallieren.
Das ganze dann Taskgesteuert mit entsprechender (imaging) Backupsoftware auf ein NAS sichern.


Mehr von Doc. tec. Storage 15.02.2019 Was sagt DWPD über SSDs aus?

Im Zusammenhang mit (Enterprise-)SSDs wird oft die Qualitätsgröße DWPD (Drive Writes Per Day) genutzt. Meist wird die Angabe auch für einen Zeitraum von fünf Jahren spezifiziert. Was sagt DWPD genau aus und mit welcher Standard-Lebensdauer darf man rechnen?


08.02.2019 Unterschiede der Performance-States von SSDs

Gängige Meinung: SSDs sind schnell. In der Praxis gibt es aber dann doch einige Unterschiede, so sind vielen die verschiedenen Performance-States von SSDs und Flash-Speichern nicht bekannt: FOB, steady, burst and transition. Was steckt genau dahinter?


01.02.2019 BSI empfiehlt 200-km-Distanz – 200 km ERNSTHAFT!?

Kurz vor Weihnachten veröffentlichte das BSI neue Kriterien für georedundante RZs. Darin wird der bisher empfohlene Mindestabstand von fünf auf 200 Kilometer hochgesetzt. Aus Praxissicht laut Doc Storage »vollkommener Blödsinn«.


31.01.2019 Nervfaktor digitale Transformation – ein Rant

Die digitale Transformation bzw. Digitalisierung verfolgt uns nun schon geraume Zeit. Mit dem Faktor Mensch kommt nun nochmal ein neues Trendthema hinzu. Doc Storage hat hier eine klare Meinung: »alles Blödsinn – es nervt«. Nichts von dem, was heute diskutiert wird, ist neu und Menschen waren schon immer der Kern eines jeden Geschäftsbetriebs – selbst in der IT.


25.01.2019 SSDs: Was ist mit den Schreibzyklen, wenn SSDs fast voll sind?

Moderne SSDs sorgen mit der Wear-Leveling-Funktion automatisch dafür, dass möglichst gleichmäßig über alle Sektoren geschrieben wird. Wie verhält es sich mit den spezifizierten Schreibzyklen, wenn die SSD nahezu voll ist?


18.01.2019 Wie sinnvoll sind Benchmarks und Performance-Tests?

Welchen Stellenwert haben Benchmarks und Performance-Tests (z.B. SPC-1 und SPC-2) bei der Anschaffung von Storage-Systemen? Man hört ja, dass sich Firmen die Anforderungen nur noch vertraglich garantieren lassen. Ist das wirklich ein gangbarer Weg?

powered by
Boston Server & Storage Solutions Datacore Software
Fujitsu Technology Solutions GmbH Unitrends
N-TEC GmbH FAST LTA AG