Registriert: Do Sep 02, 2004 19:42 Beiträge: 4158
Programmiersprache: FreePascal, C++
Ich mache mal eine Neuauflage dieser Umfrage und möchte mal zu einer Diskussion von verschiedenen Backupmethoden anregen. Wie sichert ihr eure Daten, wie oft macht ihr das, automatisiert oder nicht?
Die Umfrage ist offen für 14. Tage aaaab... Jetzt! Und nun folgen meine Backuperfahrungen:
Also, früher hab ich ja Backups nur gemacht, wenn ich mein System upgraden wollte und dann mit dar. Dar ist sowas wie Tar, nur für Festplatten. Hatte dafür auch extra nen cooles Skript, was die Festplatten rumgemountet hat, wenn eine voll war (habe zwei Festplatten fürs Backup, die zusammen die Kapazität von der Hauptplatte haben - aus kostengründen). Das dauert immer ewig und man hat ein Archivformat, das nicht unbedingt immer und überall zugreifbar ist.
Heute mache ich Backups mit rsnapshot, ein featurereiches Backupsskript, was rsync ansteuert damit es das richtige tut. Das lasse ich nicht nur meine Daten und Konfiguration meines Desktop-Rechners sondern auch die Configs und Daten von den von mir administrierten Server (also nicht DGL ) sichern. Großer Vorteil bei rsnapshot ist: Einmal konfiguriert kann man es gut als cronjob daily oder so eintragen und man braucht sich keine Sorgen mehr machen. Da es inkrementell ist, spürt man nach dem initialen Backup auch nicht viel davon, außer, dass mal für 10 Minuten die Systemlast hochgeht, wenn er die Daten vergleicht und ggf. kopiert. Dafür, dass es so mächtig ist, braucht es erstaunlich wenig Konfiguration. Mit nur 10 selbstgeschriebenen bzw. vom Default veränderten Konfigurationszeilen für meinen Desktop (natürlich zusätzliche für die Server) war das Thema gegessen. Die inkrementellen Backups werden übrigens über Hardlinks verkleinert, sodass gleiche Dateien nur einmal auf dem Zieldateisystem existieren (sofern dies Hardlinks unterstützt). Im Moment habe ich nen 7-Tage-Backlog. Der Overhead durch die inkrementellen Backups ist kleiner als der, der durch ein voll installiertes System entsteht (d.h. auf der Backupsystem ist weniger Platz belegt als auf meiner Hauptplatte).
Für jeden Linuxnutzer echt nur zu empfehlen.
so. Wie macht ihr Backups?
_________________ If you find any deadlinks, please send me a notification – Wenn du tote Links findest, sende mir eine Benachrichtigung. current projects: ManiacLab; aioxmpp zombofant network • my photostream „Writing code is like writing poetry“ - source unknown
„Give a man a fish, and you feed him for a day. Teach a man to fish and you feed him for a lifetime. “ ~ A Chinese Proverb
Mit Time Machine von Apple. Einfach Festplatte anschließen, auf "Ja" klicken und schon geht's los. Die Funktionsweise ist ähnlich wie rsnapshot, geht jedoch darüber hinaus: Die Diffs sind kleiner, da HFS+ (Das Dateisystem vom Mac) auch Hardlinks von Verzeichnissen unterstützt und TimeMachine davon Gebrauch macht. Außerdem sichert TimeMachine auch regelmäßig, wenn die Festplatte nicht angeschlossen ist lokal (solange Speicherplatz frei ist). Wenn die Festplatte wieder angeschlossen wird, wird das lokale Backup übertragen. Der Hauptvorteil ist aber, dass es wirklich 0 Konfiguration braucht. Man kann, wenn man möchte, einzelne Verzeichnisse von der Sicherung ausnehmen. Das habe ich bislang aber nicht benötigt, da die Sicherungen a) wirklich klein sind und b) TimeMachine bereits sehr sinnvolle Defaults hat. Sollte wirklich einmal die Festplatte hinüber, wichtige Dateien gelöscht sein oder ein neuer Mac installiert werden, lässt sich das Backup sehr einfach im Recovery-Modus von Mac OS X zurückspielen. Außerdem hat man eine schicke Timeline und dank gutem Scheduling tatsächlich keine spürbaren Auswirkungen auf die Systemperformance. Das einzige, was man vom Backup mitbekommt ist das TimeMachine-Symbol und das Arbeiten der Festplatte. Und das ist auch gut so, denn TimeMachine sichert sehr oft: stündlich für die letzten 24h, täglich für den letzten Monat und wöchentlich für die vorhergehenden Monate.
Für Notebooknutzer wie mich praktisch: Man kann damit auch wireless auf seinen NAS sichern o.Ä.
_________________ "Für kein Tier wird so viel gearbeitet wie für die Katz'."
Registriert: Do Sep 02, 2004 19:42 Beiträge: 4158
Programmiersprache: FreePascal, C++
Frase hat geschrieben:
Außerdem hat man eine schicke Timeline und dank gutem Scheduling tatsächlich keine spürbaren Auswirkungen auf die Systemperformance.
Naja, eigentlich ist rsync hier auch mit nem schönen nice-Wert geschedult. Was hier dazwischen funkt ist der hohe CPU-Anspruch von btrfs (habe ich auf /) und der Verschlüsselung. Muss also /dev/sdc -> decrypt -> btrfs -> RAM -> ext4 -> encrypt -> lvm -> /dev/sda | /dev/sdb. Da geht schon ein wenig CPU-Power bei flöten
greetings
_________________ If you find any deadlinks, please send me a notification – Wenn du tote Links findest, sende mir eine Benachrichtigung. current projects: ManiacLab; aioxmpp zombofant network • my photostream „Writing code is like writing poetry“ - source unknown
„Give a man a fish, and you feed him for a day. Teach a man to fish and you feed him for a lifetime. “ ~ A Chinese Proverb
Bei mir ebenfalls mehrmals täglich via TimeMachine was auch zuverlässig funktioniert
Meinen code sichere ich zusätzlich via SVN/Git auf einem ausser haus stehenden Server (wichtige sonstige sachen ebenfalls auf dem externen Server).
Demnächst wird allerdings die TimeMachine noch gegen einen Raid-Server ausgetauscht, so dass das Backup nicht durch Festplatten Schaden verloren gehen kann.
Und etwa einmal im Jahr mache ich ein komplett Backup auf USB Platte und nehm die mit zu meinem Vater und lass sie dort.
Klingt eventuell etwas paranoid, allerdings habe ich in manche dinge auf meinem Rechner so extrem viel Arbeit reingesteckt, das ich die gefahr eines verlustes so weit wie möglich minimieren möchte. Wie schnell ein Wohnungsbrand passieren kann mußte ich schon 2x feststellen, wo ich glücklicherweise noch rechtzeitig etwas gemerkt habe. (Einmal hat meine Mitbewohnerin den Hern angelassen, das andere mal hat eine Halogen Lampe angefangen zu schmoren)
Registriert: Fr Aug 26, 2011 09:26 Beiträge: 25
Programmiersprache: FreePascal
Wenn es ums ganze System geht eher selten... Bei meinem Multiboot-System wäre alles andere zu aufwändig
Bei Win wird gar nichts gesichert - da kann auch nichts verloren gehen Bei Linux (gleichzeitig "Programmierumgebung") mach ichs unterschiedlich:
Die Systempartition wird vor jedem größerem Update manuell gesichert - mit Paragon : konnte mich mit Linux-Backupprogrammen bisher nicht anfreunden, auch wenn ich sonst nur Linux verwende... Soll ichs mal mit rsnapshot versuchen??
Bei Quelltexten verwende ich git - und kopier das per Skript auf eine externe... Sonst hab ich ein Skript, das mir die Verzeichnisse (in HOME) 1:1 auf die Externe kopiert Der Vorteil: wenn die Hauptplatte mal schrott ist - ich hab sofort eine einsatzbereite Kopie... Insgesamt hat das bisher immer gut geklappt...
Zuletzt geändert von d.l.i.w am Mo Jan 30, 2012 11:34, insgesamt 1-mal geändert.
Registriert: Do Sep 02, 2004 19:42 Beiträge: 4158
Programmiersprache: FreePascal, C++
d.l.i.w hat geschrieben:
Bei Quelltexten verwende ich git - und kopier das per Script auf eine externe...
Klar, die Quelltexte hab ich vergessen. Meine Projekte liegen alle in git repositories, die mindestens auf meinen Server gepusht werden, viel auch auf Github. Ebenso das Zeug fürs Studium und demnächst auch noch andere Textdokumente. Damit sollte alles ziemlich sicher sein. Regelmäßiges Pushen ist allein schon dadurch gesichert, dass ich git zum synchronisieren zwischen Notebook und Desktop benutze . Für Code zumindest.
greetings
_________________ If you find any deadlinks, please send me a notification – Wenn du tote Links findest, sende mir eine Benachrichtigung. current projects: ManiacLab; aioxmpp zombofant network • my photostream „Writing code is like writing poetry“ - source unknown
„Give a man a fish, and you feed him for a day. Teach a man to fish and you feed him for a lifetime. “ ~ A Chinese Proverb
Registriert: Di Mai 10, 2011 19:00 Beiträge: 43
Programmiersprache: FreePascal , C++
Das ganze System hab ich erst ein einziges mal gesichert. Das war als ich neben Windows noch Linux auf die Platte gesetzt habe. Da hatte ich einfach Angst, dass mein gutes Widows danach nicht mehr funktionieren könnte .
Unter Windows gibt's nichts wichtiges außer Spielstände auf meiner Festplatte. Und wenn ich die alle nochmal durchmachen müsste wäre es auch kein herber Verlust. Also: Sicherung gleich Null.
Und seitdem ich auf Linux umgestiegen bin, hab ich "weniger" Angst von Systemabstürtzen als unter Windows. Es wäre zwar ein bisschen Aufwand das System neu einzurichten, ABER dank der Paketverwaltung hab ich auch den Überblick was ich installiert habe und was ich wofür brauche. Ich sichere nur meine Quelltexte und Schulsachen (manuell, die liegen alle in Ordnern in zwei großen Verzeichnissen) auf Stick / Platte oder wenn was ganz Neues dazu gekommen ist auf einen externen Server.
Chapter
P.S.: Jetzt hab ich doch Angst bekommen was zu verlieren *sichernsichernsichern*
Registriert: Do Sep 25, 2003 15:56 Beiträge: 7804 Wohnort: Sachsen - ERZ / C
Programmiersprache: Java (, Pascal)
Ich bekenne mich schuldig, meine Daten nur unzureichend zu sichern.... Mein Windows hab ich zu Hause eigentlich kaum noch an. (Mein Linux mittlerweile auch kaum noch, da die Elkos auf dem Mainboard durch sind und ich die Kiste schonen will bis Ersatz da ist) Quelltexte entstehen bei mir momentan nur auf Arbeit. Dort ist natürlich alles gesichert. Zu Hause entstehen z.Z. eher Dokumente oder Bilder. Die sichere ich manuell noch auf Stick + Externe Platte. Es gibt weiterhin noch ein Archiv was ich benutze. Ist außerhalb des "Schuttkegels" aber bestenfalls "jahresaktuell".
Schon krass das trotzdem kaum was verloren geht...
_________________ Blog: kevin-fleischer.de und fbaingermany.com
Ich kopier mein Zeug alle paar monate mal auf ne externe Platte. Die wichtigsten Sachen werden außerdem nach jeder Änderung auf nen USB-stick kopiert und gelegentlich verschlüsselt onlinegebackupt.
Registriert: Do Dez 05, 2002 10:35 Beiträge: 4234 Wohnort: Dortmund
Lord Horazont hat geschrieben:
Muss also /dev/sdc -> decrypt -> btrfs -> RAM -> ext4 -> encrypt -> lvm -> /dev/sda | /dev/sdb.
Wenn ich so was lese fährt mein Magen Achterbahn. Das wäre für mich Nichts. Was aber wohl auch daran liegt, dass ich extrem Konsolenscheu bin. ^^
Für mich auch wichtig, dass man Sachen vernünftig wiederherstellen kann. Und zwar auch nicht nur den letzten Stand sondern auch mal den vor 1-2 Wochen. Wer weiß schon immer, ob man Veränderungen am System rechtzeitigt bemerkt. Als Windowsnutzer hat man eine ziemlich große Auswahl an Programmen. Aber so das ideale Tool habe ich für mich noch nicht gefunden. Teilweise ist die Bedienung/Handling äußerst fragwürdig. Teilweise sichern die in einem eigenen Format. Teils sind sie extrem aufgeblasen. Oder die gehen als Backup in eine Richtung die ich gar nicht haben will. Oder ich vermisse einfach lächerliche Funktionen. 4 verschiedene Programme muss ich dann aber auch nicht haben. Fürher hatte ich Areca (OpenSource) benutzt. Aber das hat sich ein paar Sachen geleistet die für ein Backuptool gar nicht gehen. Abgesehen davon hat das 0 integration in Windows und das sollte schon irgendwie sein.
Mein Windows sicher ich gar nicht. Wenn es drauf geht, wird es neu installiert. Quellcodes (+alles was dazu gehört) landen in einem svn repository. Das aber auch nicht täglich sondern in regelmäßigen Abständen. Quellcodes und Repository werden aber täglich (edit: vollautomatisch) auf mein Nas gesichert. Meine Fotos + archivierten RAWs muss ich leider per Hand sichern. So ein Verzeichniss zu Synchronisieren scheint für die meisten Tools echt zu viel zu sein. Denn die will ich nicht in Backupdateien verpackt haben sondern nur gespiegelt haben. Aufgrund der Größe und der Tatsache, dass ich das per Hand machen muss geschiet nicht zeitnah. So etwas wie der Katalog aus dem Photoshop Elements Organizer wird aktuell noch gar nicht gesichert. Wenn man sich überlegt, dass da Tags an ein zig tausend Bildern dran hängen. Da gehen einige Stunden Arbeit drauf, wenn das weg wäre. Aber Tags sind nicht so schlimm wie fehlende Fotos. Läuft also nicht alles so wie ich es mir am liebsten wünschen würde.
Hm, momentaner Stand: - Aktuelle Quellcodes sind Projektweise in einem Mercurial Repo auf einem anderen Server - Platten im Raid1 Das wär's... Aber es gibt immer noch den Plan, irgendwann (demnächst) ein kleines NAS (mit Raid1) für Backups mit rsync zu benutzen.
Registriert: Mi Dez 03, 2008 12:01 Beiträge: 167 Wohnort: /country/germany
Programmiersprache: C++ / FreeBASIC
Hm, also ich sichere meine Daten kaum. Lediglich meine Musik kopiere ich ab und zu mal auf die externe Platte, mein Code liegt immer in irgendwelchen git-Repos rum. Ansonsten fehlt mir auch schlicht die Möglichkeit, meine interne Platte ist voll, meine externe auch und die von meinem Notebook sowieso. Und Geld für Hardware ist bei mir momentan nicht drin
_________________ Traue keinem Computer, den du nicht aus dem Fenster werfen kannst -- Steve Wozniak
also ich sichere nur wichtige Dateien wie zb. Quellcode oder Dokumente auf meinem NAS, der im RAID 1 läuft. Das ungefähr alle 2 Wochen ber Batch( Ja Windows ). Dann sind die wichtigsten Dateien auch immer auf meinem Laptop und meinem Desktop Rechner. Spielstände werden erst vorn Neuaufsetzen gesichert.
Registriert: Do Sep 02, 2004 19:42 Beiträge: 4158
Programmiersprache: FreePascal, C++
Lossy eX hat geschrieben:
Und zwar auch nicht nur den letzten Stand sondern auch mal den vor 1-2 Wochen. Wer weiß schon immer, ob man Veränderungen am System rechtzeitigt bemerkt.
Genau. Deswegen bin ich ja weg von dar & co. zu rsnapshot, was mir automatisch inkrementelle Backups über einen beliebigen Zeitraum (ich habs für 7 Tage eingestellt, weil ich nur wenig Config sichere) erstellt. Irgendwo habe ich auch mal was über rsnapshot für Windows gesehen, vielleicht wäre das was für dich? Das kommt mit großen Verzeichnisbäumen (ich sichere mein komplettes Home-Verzeichnis damit) wunderbar klar.
grüße
_________________ If you find any deadlinks, please send me a notification – Wenn du tote Links findest, sende mir eine Benachrichtigung. current projects: ManiacLab; aioxmpp zombofant network • my photostream „Writing code is like writing poetry“ - source unknown
„Give a man a fish, and you feed him for a day. Teach a man to fish and you feed him for a lifetime. “ ~ A Chinese Proverb
Registriert: Do Dez 05, 2002 10:35 Beiträge: 4234 Wohnort: Dortmund
Lord Horazont hat geschrieben:
Genau. Deswegen bin ich ja weg von dar & co. zu rsnapshot, was mir automatisch inkrementelle Backups über einen beliebigen Zeitraum (ich habs für 7 Tage eingestellt, weil ich nur wenig Config sichere) erstellt.
Ich meinte im Speziellen auch wie sich einige Tools verhalten, wenn man mal was wiederherstellen will. Einige gehen da auch her und erlauben nur den letzte Stand vollständig wieder herzustellen. Ältere Stände nur jede Datei einzeln. *argh*
Lord Horazont hat geschrieben:
Irgendwo habe ich auch mal was über rsnapshot für Windows gesehen, vielleicht wäre das was für dich?
In der Firmware von meinem Nas ist glaube ich sogar schon ein rsync server direkt eingebaut. Aber die Beschreibung auf der Webseite für den Windowsport weiß mich nicht so recht zu überzeugen. Ich will das nicht mit einer Kofigurationsdatei einstellen müssen. ^^ Ich mag auch darüber bescheid wissen, wenn Backups nicht geklappt haben. Aber auch nicht bei jedem kleinen Bisschen. Ich weiß ich bin schwierig was das Thema angeht. Oder einfach zu Anspruchsvoll. Wobei ich aber sagen muss die Strategie die das rsnapshot fährt (töglich, wöchentlich, monatlich) finde ich sehr gut.
Mitglieder in diesem Forum: 0 Mitglieder und 1 Gast
Du darfst keine neuen Themen in diesem Forum erstellen. Du darfst keine Antworten zu Themen in diesem Forum erstellen. Du darfst deine Beiträge in diesem Forum nicht ändern. Du darfst deine Beiträge in diesem Forum nicht löschen. Du darfst keine Dateianhänge in diesem Forum erstellen.