automatisches Backup 7Zip

  • Servus Robert,

    Quote from "rs"

    MozBackup hat nicht alle Dateien mit ins Archiv genommen. Es fehlen u. a. xul.mfl, xpi.dat und dann noch einige Dateien die durch Erweiterungen angelegt wurden, wie z. B. mnenhy-folderstore.rdf, mnenhy.rdf und defaults.ini.


    Ha, dacht ichs mir doch ;)
    Dadurch hinkt natürlich auch der direkte Vergleich bzgl. Geschwindigkeit und Größe des Archivs.

    Quote

    Puh. Die xul.mfl ist bei 4,2 MB groß, gezippt etwas mehr als 600 KB und man kann vielleicht 3 Sekunden sparen, wenn man die nicht mit zippt. Ich bin wie du der Meinung, dass in einem richtigen Backup-Programm alle Dateien enthalten sein sollen. Da es hier aber nicht nötig ist, würde ich entweder dem Benutzer die Wahl lassen oder die Datein genau wie MozBackup rausnehmen. Eine Möglichkeit wäre auch, standardmäßig die Dateien mit ins Archiv zu nehmen, aber einen Parameter einzufügen, dass erfahrene Nutzer die Datei ausschließen können.


    Ja, ich werde es wohl so machen, dass man in 2 Dateien selbst Auslassungen definieren kann. - Ausgeliefert werden diese Dateien dann eben leer.

    Quote

    Hm, meine Überlegung war dabei, dass vermutlich viele einen schnelleren/besseren Computer als ich haben (Athlon mit 1333 MHz und 256 MB RAM) und das P1 dann geeignete wäre, da schneller und in meinem Fall 15% weniger Platz braucht. Aber vielleicht ist LZMA-1 doch besser, ist ja auf schnelleren Computer auch noch mal schneller. Und 10 MB sind ja heuzutage nicht mehr viel.


    Naja, ich arbeite auf einem Celeron-1000 mit 768MB RAM.
    Ich denke hier eher in Größenordnungen. Grundsätzlich sehe ich die größte Belastung für den User im Faktor Zeit und erst zweitrangig im Faktor Plattenplatz. Da sind 10MB (+14%) für einen mindestens doppelt so hohen Zeitaufwand (+130%) nicht viel.

    Quote

    Edit: Unter W2k ist die Fehlermeldung weg. Unter XP teste ich später mal, aber gehe davon aus, dass dann dort auch keine mehr ist. ;)


    Ja, dann funktionierts auch unter XP. Sehr gut.


    Gute Nacht,
    Michael

  • Guten Abend Michael,

    Quote from "nixblicker"

    Ja, ich werde es wohl so machen, dass man in 2 Dateien selbst Auslassungen definieren kann. - Ausgeliefert werden diese Dateien dann eben leer.

    Ja, ist gut.


    Quote from "nixblicker"

    Ich denke hier eher in Größenordnungen. Grundsätzlich sehe ich die größte Belastung für den User im Faktor Zeit und erst zweitrangig im Faktor Plattenplatz. Da sind 10MB (+14%) für einen mindestens doppelt so hohen Zeitaufwand (+130%) nicht viel.

    Mir fehlt es in letzter Zeit zwar immer am Plattenspeicher, aber es stimmt schon, lieber weniger Zeit bzw. Prozessorleistung und dafür ein paar MB mehr.


    Gute Nacht Michael,
    Robert

  • Version 0.0.4 funktioniert nun für mich unter Windows XP. Die 0.0.2 wollte nicht. Ich bin mir aber nicht sicher, wo der Fehler lag.


    Gestern mit 0.0.2 hatte ich das "backup"-Verzeichnis gelöscht. Vielleicht war er nur nicht in der Lage dieses wieder eigenständig zu erzeugen? Darauf bin ich aber auch erst heute gekommen, als ich 0.0.4 ausprobiert habe.


    Ich habe einen geplanten Task beim Systemstart eingerichtet. Wenn man das manuell startet, dann bekommt man (beim ersten Mal) natürlich zeitlich etwas davon mit. Aber beim Systemstart fällt es mir überhaupt nicht auf, da sowieso alles mögliche geladen wird und ich etwas Geduld haben muss. Aber wir alle wissen ja wofür Geduld gut sein kann ;)


    Ich möchte schon jetzt Danke an nixblicker sagen.

  • Moin Thunder und Robert,

    Quote from "Thunder"

    Version 0.0.4 funktioniert nun für mich unter Windows XP. Die 0.0.2 wollte nicht. Ich bin mir aber nicht sicher, wo der Fehler lag.


    Konntest du die .exe auch nicht ausführen oder funktionierte "nur" das Backup nicht?

    Quote

    Gestern mit 0.0.2 hatte ich das "backup"-Verzeichnis gelöscht. Vielleicht war er nur nicht in der Lage dieses wieder eigenständig zu erzeugen? Darauf bin ich aber auch erst heute gekommen, als ich 0.0.4 ausprobiert habe.


    Erwischt ;)
    Auf die Existenz der Verzeichnisse teste ich (noch) nicht.
    Ich will sowieso noch einen zusätzlichen Parameter einrichten, der die Angabe des Backup-Verzeichnisses ermöglicht. Dann muss ich auf jeden Fall auch die Existenz des Verzeichnisses testen.
    Hat die Log-Datei nicht die Ursache des Fehlers preisgegeben?

    Quote

    Ich habe einen geplanten Task beim Systemstart eingerichtet. Wenn man das manuell startet, dann bekommt man (beim ersten Mal) natürlich zeitlich etwas davon mit. Aber beim Systemstart fällt es mir überhaupt nicht auf, da sowieso alles mögliche geladen wird und ich etwas Geduld haben muss. Aber wir alle wissen ja wofür Geduld gut sein kann ;)


    Das hört sich sehr gut an. Benutzt du die Standardkompression?

    Quote

    Ich möchte schon jetzt Danke an nixblicker sagen.


    Keine Ursache. Im Vergleich mit Deiner Arbeit kann ich leider noch nicht ganz mithalten ;)


    Das ist noch geplant (Ergänzungen sind willkommen):
    - Dateien, in denen Auslassungen definiert werden können
    - zusätzlicher (optionaler) Parameter für das Backupverzeichnis.
    - Check auf Existenz diverser benutzter Verzeichnisse
    - Restore-Skript
    - logrotate-ähnliches Verhalten, damit nicht unendlich viele Backup-Dateien angelegt werden. Ob ich das mit .bat hinbekomme, erscheint mir noch sehr fraglich. Mal sehen, was ich in die Richtung auftreiben kann.
    - Natülich das ganze als Shell-Skript für Linux/Unix.


    Aber erst muss ich noch schnell mein Studium beenden (26.10.) :)


    Gruß,
    Michael

    Edited once, last by nixblicker ().

  • Moin Michael,


    Quote from "nixblicker"

    Keine Ursache. Im Vergleich mit Deiner Arbeit kann ich leider noch nicht ganz mithalten ;)

    Was sollen andere wie ich da erst sagen? :?


    Quote from "nixblicker"

    - logrotate-ähnliches Verhalten, damit nicht unendlich viele Backup-Dateien angelegt werden. Ob ich das mit .bat hinbekomme, erscheint mir noch sehr fraglich. Mal sehen, was ich in die Richtung auftreiben kann.

    Meinst du damit, dass nicht jeden Monat ein neues Archiv angelegt wird? In dem Fall müsste doch einfach überprüft werden, ob es in dem Verzeichnis ein Backup des Vormonats gibt und dieses gegebennenfalls löschen. (und falls man nur alle paar Monate an seinem Computer ist, überprüfen, ob es ein Backup aus dem gleichen Jahr gibt ;)).


    Quote from "nixblicker"

    - Natülich das ganze als Shell-Skript für Linux/Unix.

    Im Moment freue ich mich darauf - wer weiß, ob ich dann aber noch Linux benutze :?


    Quote from "nixblicker"

    Aber erst muss ich noch schnell mein Studium beenden (26.10.) :)

    Wow, und ich hab noch nicht mal angefangen. Wünsche dir viel Erfolg und alles Gute. :D


    Gruß,
    Robert

  • Moin Robert,

    Quote from "rs"

    Meinst du damit, dass nicht jeden Monat ein neues Archiv angelegt wird?


    Nein, ich meine damit, dass man z.B. angeben kann, dass maximal 10 eigenständige Backupdateien existieren dürfen. Sobald dann die 11. erzeugt wird, wird die älteste gelöscht.

    Quote

    In dem Fall müsste doch einfach überprüft werden, ob es in dem Verzeichnis ein Backup des Vormonats gibt und dieses gegebennenfalls löschen. (und falls man nur alle paar Monate an seinem Computer ist, überprüfen, ob es ein Backup aus dem gleichen Jahr gibt ;)).


    Das ist mit normalen Programmier-/Scriptsprachen wirklich kein Problem. aber mit Batch-Skripten...
    Eine kleine Aufgabe für dich: Schreibe mal eine Batchdatei, die von einer Zahl 1 abzieht.
    Habe ich übrigens schon erwähnt, dass ich Batch-Scripting hasse :)

    Quote

    Im Moment freue ich mich darauf - wer weiß, ob ich dann aber noch Linux benutze :?


    Hmm, wie soll ich das jetzt verstehen? Ich überlege die ganze Zeit, wie lange ich Windows noch auf meinem Rechner Platz verschwenden lasse ;)

    Quote

    Wow, und ich hab noch nicht mal angefangen. Wünsche dir viel Erfolg und alles Gute. :D


    Wähle deine Uni sehr sorgsam.


    Gruß,
    Michael

  • Guten Abend Michael,


    Quote from "nixblicker"

    Nein, ich meine damit, dass man z.B. angeben kann, dass maximal 10 eigenständige Backupdateien existieren dürfen. Sobald dann die 11. erzeugt wird, wird die älteste gelöscht.

    In einem Ordner?


    Quote from "nixblicker"

    Eine kleine Aufgabe für dich: Schreibe mal eine Batchdatei, die von einer Zahl 1 abzieht.

    Ja, mal sehen. ;) Wenn ich Zeit hab.


    Quote from "nixblicker"

    Habe ich übrigens schon erwähnt, dass ich Batch-Scripting hasse :)

    Hm, schon möglich. :D


    Quote from "nixblicker"


    Hmm, wie soll ich das jetzt verstehen? Ich überlege die ganze Zeit, wie lange ich Windows noch auf meinem Rechner Platz verschwenden lasse ;)

    Du hast ja auch noch Me. Außerdem habe ich noch nicht so viel Ahnung von Linux und es gibt unter Windows einfach einige Sachen, die mir gut gefallen (keine Spiele, die laufen bei mir eh nicht ;)).


    Quote from "nixblicker"

    Wähle deine Uni sehr sorgsam.

    Danke. Aber ich war noch nicht auf so vielen Unis, dass ich da einen Überblick hätte. :?


    Gruß,
    Robert

  • Moin moin Robert,

    Quote from "rs"

    In einem Ordner?


    Sorry, die Frage verstehe ich in dem Zusammenhang überhaupt nicht.


    TB-Backup legt die Dateien doch alle in einem einzigen Verzeichnis ab. Also lautet die Antwort wahrscheinlich "ja". Bin mir aber nicht sicher...

    Quote

    Du hast ja auch noch Me. Außerdem habe ich noch nicht so viel Ahnung von Linux und es gibt unter Windows einfach einige Sachen, die mir gut gefallen (keine Spiele, die laufen bei mir eh nicht ;)).


    Ich arbeite fast täglich an einem P4-2.4GHz Rechner mit 1GB RAM, zwei 19''-Flachbildschirme vor den Augen unter WinXP mit Office 2003 (auch mit Outlook 2003) und dem IE(!!!), benutze (und administriere) ADS, SAP-Systeme, Adobe Acrobat, usw. usf.
    Ich kenne also das Grauen sehr gut :)
    Linux kann im Endeffekt heute schon mit Windows mithalten. Es ist halt immer noch ein riesiger Konfigurationsaufwand. Dafür _kann_man aber auch alles einstellen. Bei Windows ist das oft nicht der Fall. - Und v.a. sind mene bisherigen Linuxsysteme allesamt stabiler gelaufen als jedes Windows, das ich kenne.
    Und mit Vista und dem "Trusted Computing" ist bei mir endgültig der Ofen aus. Ich werde es nur noch benutzen, wenn ich es beruflich benötige.

    Quote

    Danke. Aber ich war noch nicht auf so vielen Unis, dass ich da einen Überblick hätte. :?


    Es gibt
    1. massig Studenten, die man fragen kann. Da solltest du aber ältere Semester befragen und
    2. ist der jährliche Überblick im Focus IMO sehr realitätsnah.


    Gruß,
    Michael

  • Guten Abend Michael,


    Quote from "nixblicker"


    Sorry, die Frage verstehe ich in dem Zusammenhang überhaupt nicht.


    TB-Backup legt die Dateien doch alle in einem einzigen Verzeichnis ab. Also lautet die Antwort wahrscheinlich "ja". Bin mir aber nicht sicher...

    Dafür hast du die Frage aber gut beantwortet ;) Du planst also, die Backups von jedem Monat aufzubewahren bis z. B. 10 Backups vorhanden sind? Oder was meinst du mit 10 eigenständigen Backupdateien?


    Quote from "nixblicker"

    Linux kann im Endeffekt heute schon mit Windows mithalten. Es ist halt immer noch ein riesiger Konfigurationsaufwand. Dafür _kann_man aber auch alles einstellen. Bei Windows ist das oft nicht der Fall.

    Der Meinung bin ich auch. Aber es ist am Anfang ziemlich schwer und mühsam sein Linux-System nach Wunsch einzurichten. Ich weiß noch wie ich früher zu kämpfen hatte, bis Internet lief, der Sound, TV-Karte, WebCam usw. Ich hab oft aufgegen und war frustriert :( Ich war mit Ubuntu 5.10 echt überrascht, wie gut das lief. Auf Anhieb funktionierte Internet, Sound, Multimediatasten der Tastatur und WebCam (die Sachen, an denen ich frühe lange dran gesessen habe).


    Quote from "nixblicker"

    Und v.a. sind mene bisherigen Linuxsysteme allesamt stabiler gelaufen als jedes Windows, das ich kenne.

    Ich gehe auch davon aus bzw. glaube, dass Linux - wenn richtig konfiguriert - stabiler und schneller läuft als Windows - und man natürlich alles nach Wunsch einstellen kann (wenn man es denn kann).


    Quote from "nixblicker"

    Und mit Vista und dem "Trusted Computing" ist bei mir endgültig der Ofen aus. Ich werde es nur noch benutzen, wenn ich es beruflich benötige.

    Bei mir war schon bei XP Schluss. Ich hab früher schon schnell NT genutzt, auch wenn es nur nebenbei war, liefen ja kaum spiele und so. 2000 fand ich dann noch mal richtig gut und von XP hat man anfangs auch viel Negatives gehört. Zwar sind mittlerweile fast alle begeistert davon, aber ich hab es bei mir nie installiert oder ausgiebig getestet.


    Quote from "nixblicker"

    Es gibt
    1. massig Studenten, die man fragen kann. Da solltest du aber ältere Semester befragen und
    2. ist der jährliche Überblick im Focus IMO sehr realitätsnah.

    Studenten werde ich natürlich fragen und die Focusbeiträge finde ich auch immer sehr gut.


    Gruß,
    Robert

  • Quote from "rs"

    Guten Abend Michael,


    Dafür hast du die Frage aber gut beantwortet ;) Du planst also, die Backups von jedem Monat aufzubewahren bis z. B. 10 Backups vorhanden sind? Oder was meinst du mit 10 eigenständigen Backupdateien?


    Es wird nur für jeden Monat eine eigenständige Datei angelegt. Genau diese Dateien meine ich. Um bei dem Beispielwert 10 zu bleiben: Damit wäre sichergestellt, dass immer die Backups der letzten 10 Monate vorrätig sind. - Dieser Parameter wird natürlich auch optional sein.


    Gruß,
    Michael

  • Moin,


    Ich habe einen kleinen Bug entfernt. Daher gibts jetzt die Version 0.0.5.
    Es genügt, wenn ihr euch die neue TB-Backup.bat zieht.


    Bald gibts die Linux-Version. Im svn könnt ihr euch schonmal das Shell-Script ansehen.


    Gruß,
    Michael

  • Hey Michael,


    Quote from "nixblicker"

    Bald gibts die Linux-Version. Im svn könnt ihr euch schonmal das Shell-Script ansehen.

    :D Super. ;) *michschonfreu* Ich war kurz davor, selbst ein bisschen zu coden, Aber eher der Übung wegen. ;)
    Ich wusste gar nicht, dass es 7zip auch für Linux gibt.


    Gruß,
    freuender Robert

  • Moin Robert,

    Quote from "rs"

    Ich wusste gar nicht, dass es 7zip auch für Linux gibt.


    Das heißt p7zip. Unterstützt aber leider nicht das Archivieren von uid/gid und Berechtigungen, weshalb ich einen Umweg über tar gehen muss :(
    Das ganze ist sehr ungünstig, weil ich daher nicht die update-Funktion von 7-zip benutzen kann und bei jeder Aktualisierung das Archiv neu verpacken muss. - Ich habe mich nach reichlicher Überlegung (komprimiertes ISO, Rechte selbst speichern & restaurieren, ...) dann doch für tar entschieden und lasse den Komprimierungsprozess nun mit ganz niedriger Priorität im Hintergrund laufen. So läuft die Kompression unbemerkt vom Benutzer.


    Wenn du willst, kanst du dir die Dateien schonmal vom svn ziehen und testen. Ich habe noch nicht entschieden, wie ich die Dateien releasen soll. Zur Diskussion steht derzeit "tar.bz2" und eine 7zip-executable, die ein Install-Script aufruft. Das kann noch ein wenig dauern, bis ich da eine passende Lösung anbieten kann.


    Gruß,
    Michael

  • Nabend Michael,


    Quote from "nixblicker"

    Das heißt p7zip. Unterstützt aber leider nicht das Archivieren von uid/gid und Berechtigungen, weshalb ich einen Umweg über tar gehen muss :(

    Hab ich gesehen. :(

    Quote from "nixblicker"

    Das ganze ist sehr ungünstig, weil ich daher nicht die update-Funktion von 7-zip benutzen kann und bei jeder Aktualisierung das Archiv neu verpacken muss.

    Ich hab mich sowieso schon gefragt, warum du nicht auf "standard" Komprimierungen von Linux zurückgreifst, z. B. gzip oder vielleicht auch bzip2 (was aber etwas langsam sein dürfte). Ich hab mir mal tar und gzip ein bisschen angeguckt. Mit

    Code
    tar --listed-incremental=zeitmarke.txt -hzcvf profil.tar qa1z9x2r.default

    würde eine zweite Datei angelegt (zeitmarke.txt) die die Zeit der archivierten Dateien enthält. Bei einem erneuten Aufruf wird geguckt, ob es die Datei gibt und wenn, dann werden nur neue bzw. veränderte Dateien hinzugefügt. Das 'z' steht dafür, dass die Dateien sofort mit gzip komprimiert werden. Ich wollte nämlich auch nicht jedes Mal alles neu komprimieren, was allerdings erforderlich gewesen wäre, wenn ich tar und gzip nacheinander aufgerufen hätte. Allerdings hat man so eine zusätzliche Datei (zeitmarke.txt), was aber wohl nicht so schlimm sein dürfte und ich weiß bislang nicht, ob es so überhaupt möglich ist, die Stärke der Komprimierung anzugeben.


    Quote from "nixblicker"

    [...] und lasse den Komprimierungsprozess nun mit ganz niedriger Priorität im Hintergrund laufen. So läuft die Kompression unbemerkt vom Benutzer.

    Jo, gesehen. Ist natürlich auch eine Möglichkeit. Muss man mal gucken, wie lange das dauert.


    Quote from "nixblicker"

    Wenn du willst, kanst du dir die Dateien schonmal vom svn ziehen und testen. Ich habe noch nicht entschieden, wie ich die Dateien releasen soll. Zur Diskussion steht derzeit "tar.bz2" und eine 7zip-executable, die ein Install-Script aufruft. Das kann noch ein wenig dauern, bis ich da eine passende Lösung anbieten kann.

    Ich würde im Moment eher gegen ein Install-Script stimmen. Hab aber noch nicht so viel Erfahrung mit Linux und kann daher auch nicht so viel darüber sagen. Die Daten teste ich gleich eventuell noch.


    Gruß,
    Robert

  • Moin moin Robert,

    Quote from "rs"

    Ich hab mich sowieso schon gefragt, warum du nicht auf "standard" Komprimierungen von Linux zurückgreifst, z. B. gzip oder vielleicht auch bzip2 (was aber etwas langsam sein dürfte).


    Gegenargumente zu
    gzip: langsam und schlechte Kompression.
    bzip2: laaaangsam, um vernünftige Kompression zu ereichen, dann aber auch noch 7-zip unterlegen


    Insgesamt finde ich 7-zip allen bisherigen Kompressionstools überlegen und möchte daher zumindest einmal ein Anwendungsbsp. dafür schaffen.
    Scripte zum Backupen mit tar/gz/bzip2 gibt es schon mehr als genug. Ein solches brauche ich nicht auch noch zu schreiben.
    Ich finde die feinen Einstellmöglichkeiten von 7-zip besonders hervorzuheben. So hat der User die Möglichkeit, die Kompressionsrate in kleinen Stufen herunterzuschrauben, wenn sein Profil größer wird.

    Quote

    Ich hab mir mal tar und gzip ein bisschen angeguckt. Mit

    Code
    tar --listed-incremental=zeitmarke.txt -hzcvf profil.tar qa1z9x2r.default

    würde eine zweite Datei angelegt (zeitmarke.txt) die die Zeit der archivierten Dateien enthält. Bei einem erneuten Aufruf wird geguckt, ob es die Datei gibt und wenn, dann werden nur neue bzw. veränderte Dateien hinzugefügt.


    Das wage ich zu bezweifeln. Vielleicht bekommst du nur nicht mit, dass tatsächlich doch alles ent- und wiederverpackt wird?
    Ich habe auch schon Backups mit tar und bzip2 verwirklicht. Da hat das zumindest nicht funktioniert. - Ich werde demnächst mal überprüfen, ob obige Zeile vielleicht doch das macht, was du glaubst.

    Quote

    Ich wollte nämlich auch nicht jedes Mal alles neu komprimieren, was allerdings erforderlich gewesen wäre, wenn ich tar und gzip nacheinander aufgerufen hätte.


    AFAIK macht aber tar auch nichts anderes, nur dass alles gepipet wird. Das kannst du mit tar und gzip/bzip2 auch selbst machen:

    Code
    gzip -dc profil.tar.gz | tar --listed-incremental=zeitmarke.txt -hcvf - qa1z9x2r.default | gzip -c - >profil.tar.gz


    Das ganze ist aber ungetestet. Ich habs jetzt nur mal schnell hingeklatscht. Ich werde mal sehen, ob deine Variante vielleicht doch etwas anderes macht.

    Quote

    Jo, gesehen. Ist natürlich auch eine Möglichkeit. Muss man mal gucken, wie lange das dauert.


    Das hängt natürlich extrem von der Belastung deines Rechners ab, da sich der Komprimierungsprozess ja immer schön zurückhält und jedem anderen Prozess den Vortritt lässt.
    Da das Script möglichst beim Hochfahren ausgeführt werden soll und nach dem Booten des Rechners doch mit einer längeren Sitzung gerechnet werden kann, sollte die Komprimierung fertig werden, bevor der User den PC wieder herunterfährt. - Vorausgesetzt, dass der User eine adäquate Kompressionsrate gewählt hat.

    Quote

    Ich würde im Moment eher gegen ein Install-Script stimmen.


    Ich tendiere auch eher dagegen. - Da schreibe ich lieber selbst ein paar Zeilen dazu, wie man es mit dem tar.bz2 hinbekommt.


    Gruß,
    Michael

  • Moin Michael,


    Quote from "nixblicker"

    Gegenargumente zu
    gzip: langsam und schlechte Kompression.
    bzip2: laaaangsam, um vernünftige Kompression zu ereichen, dann aber auch noch 7-zip unterlegen

    Wenn du das sagst ;) Ich hab das noch nicht genau getestet. Das Bzip2 zu langsam ist, ist mir wohl aufgefallen, aber gzip ging bei mir recht flott (kann das aber im Moment nur mit deinem Skript mit der default Einstellung (Kompression very low) vergleichen.


    Quote from "nixblicker"

    Insgesamt finde ich 7-zip allen bisherigen Kompressionstools überlegen und möchte daher zumindest einmal ein Anwendungsbsp. dafür schaffen.

    Da gebe ich dir recht. Ich bin auch ziemlich begeistert von 7zip - allerdings hab ich bislang nur unter Windows gelebt und kenne daher die Linux Kompression kaum.


    Quote from "nixblicker"

    Ich finde die feinen Einstellmöglichkeiten von 7-zip besonders hervorzuheben. So hat der User die Möglichkeit, die Kompressionsrate in kleinen Stufen herunterzuschrauben, wenn sein Profil größer wird.

    Ja, das ist einfach nur traumhaft ;) Da macht das richtig Spaß :)

    Quote from "nixblicker"


    Das wage ich zu bezweifeln. Vielleicht bekommst du nur nicht mit, dass tatsächlich doch alles ent- und wiederverpackt wird?

    Spontan würde ich sagen, das funktioniert so, Aber vielleicht hab es wirklich nicht mitbekommen, obwohl ich sagen würde, dass das sehr schnell fertig war. Werde das morgen (bzw. heute) auch noch mal testen.


    Quote from "nixblicker"

    Da das Script möglichst beim Hochfahren ausgeführt werden soll und nach dem Booten des Rechners doch mit einer längeren Sitzung gerechnet werden kann, sollte die Komprimierung fertig werden, bevor der User den PC wieder herunterfährt. - Vorausgesetzt, dass der User eine adäquate Kompressionsrate gewählt hat.

    Ich würde aber zumindest eine Alternative anbieten. Es gibt bestimmt noch Benutzer, die nur mal ebend schnell an ihren PC gehen um Mails abzurufen oder nach dem Wetter zu gucken und sich dann wieder abmelden.


    Ich glaube dein Skript läuft so weit. Zumindest wurde bei mir erfolgreich ein 7zip-Archiv erstellt, dass von der Größe her passt. Hatte 7zip am Anfang erst keine Ausführungsrechte (x) gegeben, daher konnte 7zip dann nicht das Archiv erstellen (ich hatte also immer nur das tar-Archiv). Und ich hab eine Kleinigkeit ergänzt. In dem Skript im Abschnitt "# create or update the tar-archive"

    Quote

    else
    ${ECHO} "Creating tar archive: ${TBBACKUPTAR}" >>${TBBACKUPLOG}
    ${NICE} -n 0 ${TAR} ${TAROPTIONS} -hcf ${TBBACKUPTAR} ${TARBACKUPSOURCE}

    Ich habe meine Mails noch im Windows-Profil liegen und nur mit symbolischen Links darauf verwiesen. ;)
    Und mir ist noch aufgefallen, wenn schon ein Archiv vorhanden ist und ich das Skript noch mal ausführe, dann bleibt am Ende das unkomprimierte tar-Archiv erhalten. Ich meine, dass das beim ersten Aufruf - als es das Archiv noch nicht gab - nicht der Fall war.
    Werde aber morgen weitertesten, muss jetzt ins Bett.


    Gute Nacht,
    Robert

  • Servus,

    Quote from "rs"

    Wenn du das sagst ;) Ich hab das noch nicht genau getestet. Das Bzip2 zu langsam ist, ist mir wohl aufgefallen, aber gzip ging bei mir recht flott (kann das aber im Moment nur mit deinem Skript mit der default Einstellung (Kompression very low) vergleichen.


    Damit hast du schon Recht. Es ist recht flott, dafür ist die Kompression eher dürftig (verglichen mit 7-zip).

    Quote

    Da gebe ich dir recht. Ich bin auch ziemlich begeistert von 7zip - allerdings hab ich bislang nur unter Windows gelebt und kenne daher die Linux Kompression kaum.


    Die Kompression selbst ist exakt die gleiche. p7zip ist ja nur ein "Port", d.h. dass es von der Funktionalität identisch mit der 7za.exe ist.

    Quote

    Ich würde aber zumindest eine Alternative anbieten. Es gibt bestimmt noch Benutzer, die nur mal ebend schnell an ihren PC gehen um Mails abzurufen oder nach dem Wetter zu gucken und sich dann wieder abmelden.


    Dann sollen sie Kompression 0 nehmen.
    Es ist ja auch kein Beinbruch, wenn nicht jeden Tag das Archiv aktualisiert wird. - Irgendwann wird er schon lange genug am PC sein, damit das Skript mal durchlaufen kann.
    Die einzige andere Option wäre, das Skript höher zu priorisieren. - Damit würde sich der Aufenthalt des Users zwangsläufig verlängern, da natürlich alles andere langsamer läuft.
    Hast du mal getestet, wie lange das skript mit Standardkompression bei dir braucht? Ich habe hier immer auf meinem Server mit 166MHz getestet. Das ist nicht wirklich repräsentativ ;)

    Quote

    Und ich hab eine Kleinigkeit ergänzt. In dem Skript im Abschnitt "# create or update the tar-archive"

    Ich habe meine Mails noch im Windows-Profil liegen und nur mit symbolischen Links darauf verwiesen. ;)


    Ich hatte absichtlich nicht dereferenzieren lassen, weil ich doppelte Backups vermeiden wollte (wenn unter Win auch das Skript läuft...).
    Hmm, ich glaube, ich nehme doch das 'h' ;)

    Quote

    Und mir ist noch aufgefallen, wenn schon ein Archiv vorhanden ist und ich das Skript noch mal ausführe, dann bleibt am Ende das unkomprimierte tar-Archiv erhalten.


    Das dürfte nur der Fall sen, wenn 7-zip nicht fertig geworden ist. Ich lasse extra den errorlevel von 7-zip überprüfen. Nur wenn dieser 0 ist, wird das tar gelöscht. - So soll gewährleistet werden, dass auf jeden Fall ein Backup existiert, auch wenn es 7-zip nicht ganz geschafft hat.


    Schau dir mal die log-Dateien genauer an.


    Gute Nacht,
    Michael

  • Moin Moin,


    Quote from "nixblicker"

    Die Kompression selbst ist exakt die gleiche. p7zip ist ja nur ein "Port", d.h. dass es von der Funktionalität identisch mit der 7za.exe ist.

    Ja, schon klar. Ich meinte auch eher, dass ich die anderen Kompressionen die es unter Linux gibt noch nicht kannte/kenne. ;)


    Quote from "nixblicker"

    Es ist ja auch kein Beinbruch, wenn nicht jeden Tag das Archiv aktualisiert wird. - Irgendwann wird er schon lange genug am PC sein, damit das Skript mal durchlaufen kann.

    Ich hab mir dabei nur gedacht, wenn 7zip gerade dabei ist das Archiv zu erstellen und dann der PC ausgemacht wird, kann man das 7zip Archiv vergessen. Allerdings hat man dann ja noch das tar Archiv, also ist es gar nicht schlimm. ;)


    Quote from "nixblicker"

    Hast du mal getestet, wie lange das skript mit Standardkompression bei dir braucht? Ich habe hier immer auf meinem Server mit 166MHz getestet. Das ist nicht wirklich repräsentativ ;)

    Noch nicht mit Stoppuhr. ;) Werde gleich mal ein bisschen testen.


    Quote from "nixblicker"

    Ich hatte absichtlich nicht dereferenzieren lassen, weil ich doppelte Backups vermeiden wollte (wenn unter Win auch das Skript läuft...).

    Man kann aber nicht umbedingt davon ausgehen, dass unter Windows auch Backups erstellt werden und vor allem nicht, dass diese auch regelmäßig erstellt werden. Vielleicht hat man Windows nur noch nebenbei auf dem PC und startet alle paar Monate mal. Wenn nur dann - falls überhaupt dann - die Mails gesichert werden, ist das etwas wenig. ;) Darum...

    Quote from "nixblicker"

    Hmm, ich glaube, ich nehme doch das 'h' ;)

    ...finde ich diese Entscheidung gut :D


    Quote from "nixblicker"


    Das dürfte nur der Fall sen, wenn 7-zip nicht fertig geworden ist. Ich lasse extra den errorlevel von 7-zip überprüfen. Nur wenn dieser 0 ist, wird das tar gelöscht. - So soll gewährleistet werden, dass auf jeden Fall ein Backup existiert, auch wenn es 7-zip nicht ganz geschafft hat.

    Okay, war mein Fehler. Nachdem ich das jetzt noch mal getestet habe, hab ich gemerkt, dass ich das dereference bei Updating tar Archiv vergessen habe. Jetzt läuft es so, wie es soll. :D


    Gruß,
    Robert

  • So, die ersten Tests:
    Ich hab dein Skript so laufen lassen, also mit niedriger Priorität für 7zip. Dabei hab ich ein paar Programme laufen (Firefox, irssi, Gaim, Systemüberwachung) aber ich hab nichts am PC gemacht, sodass diese Programme relativ wenig CPU Leistung benötigen.



    Default (1 - very low):
    1. Aufruf (kein Archiv vorhanden): 3:17 Minuten - 7zip Archiv: 76,4 MB
    2. Aufruf (Archiv vorhanden, nichts an den original Daten verändert): 3:30 - 76,4 MB


    2 - low:
    1. Aufruf: 6:40 Min - 71 MB


    4 - medium:
    1. Aufruf: 8:22 - 64,8 MB


    Gruß,
    Robert

  • Moin Robert,

    Quote from "rs"

    Default (1 - very low):
    1. Aufruf (kein Archiv vorhanden): 3:17 Minuten - 7zip Archiv: 76,4 MB
    2. Aufruf (Archiv vorhanden, nichts an den original Daten verändert): 3:30 - 76,4 MB


    Shit, das dachte ich mir. Ich werde wohl dann doch jedesmal alles neu machen. Dann dauert das Update wenigstens nicht noch länger als das Neuanlegen.

    Quote

    2 - low:
    1. Aufruf: 6:40 Min - 71 MB


    4 - medium:
    1. Aufruf: 8:22 - 64,8 MB


    Das dauert ja saulang. Hast du dazu auch das Profil mit ca 230MB benutzt?
    Wie lange dauert bei dir denn das Archivieren dieses Profils mit gzip?
    Und wie lange dauert damit das Updaten?
    Wie groß ist das Archiv mit gzip?


    Nochmals vielen Dank für deine Mühen,
    Michael