Der originale Artikel „Backupkonzept zum Nachmachen“ ist immer noch bei WEITEM der meist aufgerufene Artikel.
Da steht aber veraltetes Wissen drin. Ich stelle den Artikel in der Rohfassung schon mal rein damit das Blog nicht zu lange still steht. Die bekannten Änderungen sind oben in den Changemes.
- Links einfügen
- Bilder:
- 3-2-1
- DLT-Tape
- Klemmbrett mit Checkliste
- Kuchengrafik Datenverlust
Der neue Artikel hat aufgrund des Umfang des Stoffs vier Teile:
1) Einleitung und Überblick
2) Zu sichernde Dateien finden, abschätzen und Checklisten erstellen
3) Ein paar Skripte zur Vorbereitung
4) Ein Beispiel aus der Praxis
Zunächst fange ich nochmal mit dem Standard an:
[Bild einfügen: 3-2-1]
bq. Kern jeder Backup-Strategie ist die 3-2-1-Regel. Zumindest ist sie das in der Theorie. Sie verlangt
3 Kopien von jedem Datensatz auf 2 unterschiedlichen Medien und davon 1 Kopie offline.
Das ist natürlich in dieser Form für normale Menschen nicht umsetzbarer Quark. Denn von mir abgesehen kenne ich NIEMANDEN, der privat einen Backup-Tape-Roboter besitzt.
Hier sind meine Anforderungen:- Das Backup geschieht ohne Zutun und läuft auch weiter, ohne dass jemand etwas tun muss.
- Man kann jederzeit außerhalb der Vorgänge die Medien tauschen.
- Das Backup ist nicht teurer als die Daten darin in der Cloud aufzubewahren und sichern zu lassen.
- Das Backup kommt ohne Sonderhardware aus.
[Bild einfügen: DLT-Tape]
Ich gehe jetzt mal die üblichen Desktop Backup-Verfahren durch und liste auf, was sie bieten und was nicht.
Verfahren | bietet | bietet nicht |
Image-basiertes Backup TimeMachine,Acronis True Image, Veeam Agent |
Bare-Metal-Restore (Wiederherstellung ganz ohne Betriebsystem), Sichere Vollständigkeit | Portabilität der Backups (Wiederherstellung auf komplett anderem System), Minimales Volumen auf dem Medium |
Datei-Backup mit Backup-Software Windows-Backup, Veritas, BURP … |
Sichere Vollständigkeit,Portabilität der Backups (Wiederherstellung auf komplett anderem System) | Bare-Metal-Restore (Wiederherstellung ganz ohne Betriebsystem), Minimales Volumen auf dem Medium |
Datei-Backup mit Copy-Job XCopy, Robocopy… |
Portabilität der Backups (Wiederherstellung auf komplett anderem System), Minimales Volumen auf dem Medium | Sichere Vollständigkeit, Bare-Metal-Restore (Wiederherstellung ganz ohne Betriebsystem) |
Natürlich kann man durch geschickte Konfiguration oder gute Kenntnisse den einen oder anderen Nachteil ausmerzen und durch ungeschickte Konfiguration oder Zwänge einen Vorteil verlieren. Grundsätzlich gibt es eine Linie von Einfachheit der Nutzung und des Restores zu technischer Einfachheit. Eine Image-Sicherung, wie sie Veeam Agent Free oder Acronis True Image und bei Apple die Time Machine vornimmt, die sich bei der Einrichtung um alles Wesentliche wie die Erstellung eines Notfalldatenträgers kümmert, macht im Betrieb und beim Restore die wenigste Arbeit und haben daher auch die kleinste Trefferwahrscheinlichkeit für Benutzerfehler. Leider enden die Vorteile da auch schon.
Images haben das Problem, sehr groß und nicht sicher Teilbar zu sein. Dateibackups müssen regelmäßig evaluiert werden, damit man nicht doch mal etwas vergisst.
[Changeme Bild einfügen: Klemmbrett mit Checkliste]
In allen Studiengängen mit „Wirtschaft“ lernt man in den Grundlagenvorlesungen, dass ein Optimum NIE auf einer Strecke sondern immer in einer Ecke liegt. Das ist in der Absolutheit unhaltbarer Quatsch, aber man wird sich als jemand, der sein Backup planen will, zwischen einem Image-basierten Ansatz und einer reinen Dateisicherung entscheiden. Außer dem Windowsbackup oder cism setzt im Grunde niemand mehr auf einen Datei-basierten Vollabzug, solange er nicht dazu gezwungen ist.
Das alte Konzept sah lokal gesicherte Images und Spiegelung der Dateien in einen Cloudspeicher vor. Das war lange für mich die beste Form, aber es ist auch schlicht die Kombination der teuersten Backup-Formen. Denn sie maximiert die eingesetzte Hardware und macht eine Datenträger-Rotation für die offline-Kopie sehr aufwendig und meine Cloud-Lösung kostet mich derzeit etwa 40,- … pro Monat. Auch die Energiekosten für 8 dauerhaft drehende Festplatten im Haushalt sind erheblich. Die Faustformel für die jährlichen Betriebskosten ist 2,50€ pro Watt. Ein dauernd laufendes 4-Bay-NAS schlägt dann mit optimistischen 30W schon sehr erheblich zu und für 2022 sollte man eher mit 40 cent als mit 32 cent rechnen, womit man 3,-€ pro Watt und Jahr annehmen muss. Und 8 Platten sind der NASen zwei…
Grundsätzlich hat sich in den letzten Jahren vieles verschoben. Der Geschwindigkeitsvorteil bei der Wiederherstellung von einem Image aus dem LAN gegenüber einer Neuinstallation ist zumindest für jüngere Windows 10, MacOS X / 11 und Debian jünger als Buster vernachlässigbar. Wenn man sich bei der Software auf den Store des OS-Anbieters beschränkt, gibt es auch oft die Möglichkeit, einfach „Alles“ mit nur einer Aktion wieder zu installieren.
Da ich privat mindestens je ein Notebook mit einem der genannten Betriebssysteme vorhalte, lag für mich der Vorteil des Imagings eher darin, dass ich nur einen Vorgang anstoßen muss und der ausgefallene Rechner das irgendwo im Haus tun kann, während ich auf einem anderen weiterarbeite. Auch im kommerziellen sind Imaging-Prozesse auf dem Rückzug, da IT immer mehr anders verwaltet wird.
Sicher könnte man die ganze Software auch vorpacketieren und sich ein Chocolatey-Repo auf dem NAS anlegen. Dann reicht nach dem Betriebssystem ein Skript. Aber das wäre etwas viel Aufwand und ich habe mir mittlerweile angewöhnt, nur die funktionierenden Installer und eine passwortgeschützte Liste mit Seriennummern, Lizenzdateien und MD5-Prüfsummen im NAS vorzuhalten. Der Rechner fällt somit zwar länger aus und die Wiederinbetriebnahme kostet in erster Linie Zeit, aber durch die Installation von vertrauenswürdigen Quellen fange ich auch das Risiko, dass ich mit dem Image einen schlafenden Kryptotrojaner wiederherstelle, ab.
Insgesamt sollte man sich vor allem über die Risiken, gegen die man sich schützen will, im Klaren sein. Während Kryptotrojaner 2002 noch keine Rolle spielten, haben sie sich im SOHO- und SMB- Umfeld mittlerweile auf Platz vier der Ursachen für Datenverluste vorgekämpft und die Schonzeit für Mac und Linux ist seit 2016 vorbei. KeRanger und MacRansom oder Linux.Encoder.1 waren auch keine Eintagsfliegen.
Nachwievor sind defekte Festplatten oder ausgefallene SSDs für 2/3 der technisch bedingten Datenverluste verantwortlich. Bei Consumer-SSDs sind es zur Hälfte „Bitkipper“ z.B. durch kosmische Strahlung oder Elektrostatik, die für Datenkorruption sorgen. Die echten Speicher-Defekte und „exhausted write cycles“ sind zwar gefährlicher, aber seltener und in der Regel gut vorhersagbar. Die häufigsten Ausfälle bei SSDs in Notebooks sind defekte Controllerchips und Probleme mit Lötstellen, die wenn sie Auftreten eigentlich immer den Totalverlust bedeuten.
Festplatten werden in den Publikumsmedien immer als Ding aus der Vergangenheit dargestellt, dabei sind sie immer noch pro Volumen/TB und Stromverbrauch/TB den SSDs um längen voraus. Mit der Entdeckung neuer magnetisierbarer Materialien, die im Grunde amorph aufgetragen werden können und somit keine weißschen Bezirke in den Kristallen ausbilden, wurde auch eine neue Tür geöffnet, die eine weitere exponenzielle Steigerung verspricht, während SSDs nur noch durch Die-Stacking und Verlust von Resilienz nennenswerte Fortschritte erreichen können. Die höhere Datendichte bei den Festplatten hat auch die Fertigungsqualität auf ein neues Level gehoben. Leider hat sich damit eine weitere Konzentration auf nur noch 6 Hersteller ergeben. Tatsächlich fallen mittlerweile mehr Platten durch defekte Controller aus durch Verschleiss oder mechanische Probleme aus.
Festplatten können sich allerdings nicht dagegen „wehren“, dass jemand den Controller oder nur die Firmware im Controller tauscht und die Rohdaten ausliest, eine etwaige Verschlüsselung bricht oder gar den Bootcode ändert. Bei SSDs ist der Weg am Controller vorbei in der Regel nicht erfolgversprechend, da die physischen Speicherzellen dynamisch verteilt werden um den Verschleiss gleichmäßig zu verteilen. Damit wären wir auch bei den Zielmedien, denn die gleichen Überlegungen gelten auch für die Datenträger als Zielmedium.
Festplatte | empfindlich gegen Stürze und Vibrationen | Schreiblebensdauer unbegrenzt, Lesen verschleissbehaftet | nur Verschlüsselung | groß, bis 8 TB | ab 0,04€/GB |
SSD | Absolut robust | Schreiblebensdauer begrenzt, Lesen ohne Verschleiss | Verschlüsselung und Schutz gegen Kopie | groß, bis 8 TB | ab 0,08€/GB |
Speicherkarte | Absolut robust | Schreiblebensdauer begrenzt, Lesen ohne Verschleiss | nur Verschlüsselung | bis 1 TB | ab 0,23€/GB |
USB-Stick | Absolut robust | Schreiblebensdauer begrenzt, Lesen ohne Verschleiss | nur Verschlüsselung | groß, bis 1 TB | ab 0,15€/GB |
Backup-Cartridge RDX | Sehr robust | Schreiblebensdauer unbegrenzt, Lesen verschleissbehaftet | nur Verschlüsselung | groß, bis 8 TB | ab 0,10€/GB |
Cloudbackup (AWS) | N/A | N/A | Verschlüsselung und Zugriff | unendlich | ab 0,144€/GB (für 1Jahr, Restore teurer) |