Linux/Datensicherung und -archivierung: Unterschied zwischen den Versionen

Aus Foxwiki
Zeile 492: Zeile 492:


=== Low Level Backup (dd) ===
=== Low Level Backup (dd) ===
Diskdump ist ein sehr flexiebles Werkzeug, das ab einem bestimmten Startpunkt eine bestimmte Menge »roher« Daten liest und diese 1:1 in eine Zieldatei oder auf ein Zielgerät schreibt. Zusätzlich kann dd die gelesen Daten konvertieren.
[[Linux:Befehl:dd]]
 
Diese Eigenschaft erlaubt es, Dateien beliebiger Dateisysteme zu sichern, selbst wenn Linux diese nicht lesen kann.
 
dd if=QUELLE of=ZIEL [OPTIONEN]
 
QUELLE und ZIEL können hierbei sowohl ein Device als auch eine Datei sein. Werden keine weiteren Optionen angegeben, so werden alle Daten aus QUELLE gelesen. Handelt es sich bei QUELLE um eine Partition, wird deren gesamter Inhalt kopiert:  
 
<nowiki># dd if=/dev/hda of=/dev/hdc</nowiki>
 
Im Beispiel wird die gesamte erste IDE-Festplatte (/dev/hda) des Systems auf die dritte (/dev/hdc) kopiert. Es sollte jedem bewusst sein, dass der alte Inhalt der dritten Festplatte damit überschrieben wird. Auch sollte diese über die gleiche Kapazität wie die erste Platte verfügen (sonst muss man sich die Anzahl der kopierten Bytes merken). Um die Daten später zurückzuspielen, vertauscht man die Angaben von QUELLE und ZIEL.
 
Ist das Ziel einer Kopieraktion eine Datei, könnte bei Kernel-Versionen <2.4 die Beschränkung der Dateigröße von 2 GB unser Vorhaben zunichte machen, in einem solchen Fall muss die QUELLE auf mehrere Zieldateien aufgeteilt werden. Hierzu benötigt dd mehrere Optionen. Mit bs=BYTES muss die Anzahl Bytes, die in einem Schritt zu lesen oder schreiben sind, angegeben werden. Wieviele Schritte getätigt werden sollen, legt die Option count=ANZAHL fest. Um bspw. den Masterbootsektor (Mbr) der ersten Festplatte in eine Datei zu schreiben, könnte man folgenden Aufruf verwenden:
 
<nowiki># dd if=/dev/hda of=/tmp/mbr.save bs=512 count=1</nowiki>
 
Um jetzt den Superblock (1 k groß) der ersten Partition zu sichern, müssen sowohl Mbr als auch der 512 Bytes lange Bootsektor (also zwei Blöcke) übersprungen werden. Hierzu verwendet man die Option skip=ANZAHL.
 
<nowiki># dd if=/dev/hda of=/dev/superblock.save bs=512 count=2 skip=2 </nowiki>
 
Wenn dd seine Arbeit verrichtet hat, gibt es eine Statistik aus:
 
3385223+0 records in
3385223+0 records out
1733234176 bytes (1.7 GB) copied, 6.42173 seconds, 270 MB/s
 
Mit Hilfe des Signals SIGUSR1(10) kann dd auch während der Arbeit eine Statistik ausgeben:
 
<nowiki>#</nowiki> dd if=/dev/zero of=/dev/null count=10MB & pid=$!
<nowiki>#</nowiki> kill -10 $pid
 
'''Optionen'''
 
{| class="wikitable sortable" 
|-
|  | '''bs=bytes'''
|  | Erzwingen von ibs=bytes und obs=bytes.
|-
|  | '''cbs=bytes'''
|  | Konvertieren von bytes Bytes auf einmal.
|-
|  | '''conv=schlüsselwörter'''
|  | Konvertieren der Datei gemäß der kommagetrennten Liste von Schlüsselwörtern.
|-
|  | '''count=blöcke'''
|  | Nur blöcke Eingabeblöcke kopieren.
|-
|  | '''ibs=bytes'''
|  | Lesen von bytes Bytes auf einmal.
|-
|  | '''if=datei'''
|  | Lesen aus datei statt von der Standardeingabe.
|-
|  | '''obs=bytes'''
|  | Schreiben von bytes Bytes zur Zeit.
|-
|  | '''of=datei'''
|  | Schreiben in datei statt in die Standardausgabe.
|-
|  | '''seek=blöcke'''
|  | Überspringen von blöcke Blöcken der Größe von obs beim Beginn der Ausgabe.
|-
|  | '''skip=blöcke'''
|  | Überspringen von blöcke Blöcken der Größe von ibs beim Beginn der Eingabe.
|-
|}
''bytes'' können folgende multiplikativen Endungen tragen: xM M, c 1, w 2, b 512, kD 1000, k 1024. MD 1.000.000, M 1.048.576, GD 1.000.000, G 1.073.741.824, und so weiter für T, P, E, Z, Y.
 
'''Schlüsselwörter'''
 
{| class="wikitable sortable" 
|-
|  | '''ascii'''
|  | von EBCDIC in ASCII.
|-
|  | '''ebcdic'''
|  | von ASCII in EBCDIC.
|-
|  | '''ibm'''
|  | von ASCII in alternatives EBCDIC.
|-
|  | '''block'''
|  | Auffüllen von mit Zeilenumbrüchen terminierten Datensätzen durch Leerzeichen bis zur cbs-Größe.
|-
|  | '''unblock'''
|  | Ersetzen von nachlaufenden Leerzeichen in Datensätzen von cbs-Größe mit Zeilenumbrüchen.
|-
|  | '''lcase'''
|  | Ändern von Großbuchstaben in Kleinbuchstaben.
|-
|  | '''notrunc'''
|  | Kein Abschneiden der Ausgabedatei.
|-
|  | '''ucase'''
|  | Ändern von Kleinbuchstaben in Großbuchstaben.
|-
|  | '''swab'''
|  | Jedes Paar von Eingabebytes vertauschen.
|-
|  | '''noerror'''
|  | Nach Lesefehlern fortfahren.
|-
|  | '''sync'''
|  | Jeden Eingabeblock mit NULLen zur ibs-Größe auffüllen; wenn mit block oder unblock benutzt, stattdessen mit Leerzeichen.
 
|-
|}
==== Anwendung von Diskdump ====
'''Eine Diskette in ein Imagefile schreiben '''
 
'''dd if=/dev/fd0 of=image file'''Achtung, das Diskettenlaufwerk darf nicht gemountet sein!
 
<u>Beispiel</u>
 
dd if=/dev/fd0 of=/tmp/abc_diskette.im
 
'''Eine Diskette aus einem Imagefile erstellen '''
 
'''dd if=image file of=/dev/fd0 '''Achtung, das Diskettenlaufwerk darf nicht gemountet sein!
 
<u>Beispiel</u>
 
dd if=/tmp/abc_diskette.img of=/dev/fd0
 
'''Eine CD in ein Imagefile schreiben '''
 
Genauso wie von Disketten lassen sich auch von CDs Images erstellen: '''dd if=cd-laufwerk of=image file '''Achtung, das CD-Laufwerk darf nicht gemountet sein!
 
<u>Beispiel</u>
 
dd if=/dev/cdrom of=/tmp/CD-image.img
 
'''Ein Imagefile mounten '''
 
mount -o loop imagefile ziel
 
Das Imagefile kann so wie eine Festplatte / ein Verzeichnis behandelt werden. Sehr praktisch, um zum Beispiel ein CD-Abbild als "virtuelles CD-Laufwerk" zu benutzen. Geht natuerlich auch mit anderen Imagedateien, zum Beispiel Diskettenimages oder Festplattenimages
 
mount -o loop /tmp/cd-image.img /mnt/virtualCD
 
'''Den Master Boot Record sichern '''
 
Der dd-Befehl ist auch geeignet, um den Master Boot Record einer Festplatte auszulesen und in eine Datei zu schreiben.
 
<div >dd if=festplatte of=dateiname bs=512 count=1
 
<u>Beispiel</u>
 
dd if=/dev/hda of=/tmp/mbr.img bs=512 count=1
 
'''Einen gesicherten Master Boot Record zurückschreiben '''
 
Den mit dem vorigen Befehl gesicherten MBR kann man natuerlich auch wieder auf eine Festplatte zurueckschreiben.
 
<div >dd if=dateiname of=festplatte bs=512 count=1
 
<u>Beispiel</u>
 
dd if=/tmp/mbr.img of=/dev/hda bs=512 count=1
 
'''Die primäre Partitionstabelle wiederherstellen, ohne den MBR zu überschreiben'''
 
dd if=mbr.img of=/dev/hda bs=1 count=64 skip=446 seek=446
 
'''Einen komprimiertes Image von einer Festplatte oder Partition erstellen '''
 
Um von einer Festplattenpartition ein Backup zu machen, ist dieser Befehl sinnvoll. Durch die Komprimierung kann oft ca. die Häfte des Platzes gespart werden.
 
<div >dd if=partition/festplatte bs=64k |gzip -c >dateiname.img.gz
 
<u>Beispiel (1. Partition der 1. Festplatte)</u>
 
dd if=/dev/hda1 bs=64k |gzip -c >/tmp/hda1.img.gz
 
<u>Beispiel 2 (Verschlüsselt auf entfernten Rechner übertragen)</u>
 
dd if=/dev/hda1 bs=64k |gzip -c | ssh [mailto:user@rechner user@rechner2] 'cat >/tmp/rechner1.hda1.img.gz'
 
'''Das komprimierte Image wieder zurückschreiben '''
 
<div >cat dateiname.gz |gzip -d | dd of=festplatte bs=64k
 
<u>Beispiel 1</u>
 
cat /tmp/hda1.img.gz |gzip -d | dd of=/dev/hda1 bs=64k
 
<u>Beispiel 2</u>
 
ssh [mailto:user@rechner2 user@rechner2] 'cat /tmp/rechner2.hda1.img.gz' |gzip -d | dd of=/dev/hda1 bs=64k
 
'''README'''
 
Dd erstellen 1:1-Kopien von Datenträgern aller Art und rettet so beispielsweise die Daten von kränkelnden Festplatten. Das Tool Mkisofs sammelt Daten aus dem Verzeichnisbaum und schreibt sie in ein ISO-Image. So lassen sich Backups auf CD/DVD sichern oder bootfähige Medien erzeugen.
 
Zum Brennen von Daten-CDs oder -DVDs stehen auf der Kommandozeile mehrere Anwendungen zur Verfügung. Bevor es jedoch ans eigentliche Brennen geht, muss ein so genanntes <span >'''Joliet'''</span>-Erweiterungen, erzeugt Images für bootbare Medien und Dateien und kann automatische Backups anlegen, wobei es einzelne Dateien ausschließt. Eine Alternative kommt in Form von Dd, das nicht nur ISO-Abbilder erzeugt, sondern oft auch die letzte Rettung für die Daten von sterbenden Festplatten darstellt.
 
<span >'''Rockridge/Joliet:'''</span> Die Rockridge-Erweiterung ergänzt das ISO-Dateisystem um Unix-typische Dateiinformationen, wie Besitzer, Gruppe, Zugriffsrechte und symbolische Links. So tritt beim Kopieren von Daten aus einem Unix-Dateisystem auf CD kein Informationsverlust ein. Zudem erlaubt Rockridge längere Dateinamen. Die Microsoft-Erweiterung Joliet des ISO-9660-Standards lässt ebenfalls lange Dateinamen zu.
 
==== Convert und Copy ====
Das praktische kleine Tool Dd müsste eigentlich den Namen Cc tragen: Convert & Copy. Da dieser aber schon für den C-Compiler vergeben war, griffen die Entwickler einfach zum nächsten Buchstaben im Alphabet.
 
Dd erstellt 1:1-Kopien von Datenträgern. Egal ob Festplattenpartitionen, CDs oder DVDs -- Dd liest und schreibt zuverlässig blockweise. Da Dd diese <span >'''Blöcke'''</span> nicht verarbeitet oder interpretiert, spielt es keine Rolle, um welches Dateisystem es sich handelt. Sogar vor Festplatten mit Fehlern schreckt Dd nicht zurück (siehe Abschnitt "Letzte Rettung"). Der einfache Aufruf für Dd lautet:
 
dd if=''Quelle'' of=''Ziel''
 
<span >'''Block:'''</span> Eine fortlaufende Ansammlung von Bytes auf einem Datenträger. Einige Geräte wie Festplatten, Disketten und CD-/DVD-Laufwerke organisieren ihre Daten in solchen Blöcken ("block devices"). Andere Geräte arbeiten zeichenorientiert ("character devices") und lesen/schreiben einzelne Bytes.
 
Über <tt>if</tt> geben Sie also an, von wo Dd die Daten liest, und hinter <tt>of</tt> definieren Sie die Ausgabe. Als Quelle und Ziel dienen oft ein Gerät, wie eine Festplatte(npartition) oder ein CD-/DVD-Laufwerk. Alternativ geben Sie nach dem Gleichheitszeichen eine Datei an. Um etwa die Festplattenpartition <tt>hda1</tt> 1:1 nach <tt>/dev/hdb1</tt> zu kopieren, tippen Sie:
 
dd if=/dev/hda1 of=/dev/hdb1
 
Ebenso können Sie Dd dazu verwenden, schnell eine CD oder DVD auf der Kommandozeile zu kopieren. Ein entsprechendes ISO-Image erstellen Sie beispielsweise über:
 
$ dd if=/dev/hdc of=abbild.iso
9153728+0 Datensätze ein
9153728+0 Datensätze aus
4686708736 bytes transferred in 1209,649659 seconds (3874435 bytes/sec)
 
Das Medium muss dazu nicht gemountet <span >[1]</span> sein. Die Laufwerksangabe <tt>/dev/hdc</tt> ersetzen Sie durch den entsprechenden Gerätenamen Ihres Laufwerks; das ISO-Image landet anschließend in der Datei <tt>abbild.iso</tt> des aktuellen Verzeichnisses.
 
==== Optimieren mit Optionen ====
Das Programm Dd bringt einige Schalter mit. Ein praktischer Parameter, der die Arbeit des Programms maßgeblich beschleunigt, ist <tt>bs</tt> (englisch "block size" = Blockgröße). Standardmäßig arbeitet Dd mit 512 Byte großen Blöcken -- es liest jeweils 512 Bytes ein und schreibt diese in die Ausgabedatei. Wählen Sie größere Blöcke, arbeitet Dd dementsprechend schneller. So sorgt der Aufruf:
 
dd if=/dev/hda1 of=/dev/hdb1 bs=2k
 
dafür, dass Dd die Partition in 2 KByte (2048 Bytes) großen Blöcken kopiert. Unterschreitet der letzte Block die angegebene Blockgröße, füllt Dd ihn nicht auf:
 
$ dd if=/dev/hda1 of=/dev/hdb1 bs=6k
16059+1 Datensätze ein
16059+1 Datensätze aus
98670592 bytes transferred in 13,801482 seconds (7149275 bytes/sec)
 
Die Ausgabe zeigt, dass Dd 16059 Blöcke der Größe 6144 Bytes und einen "übrig gebliebenen" Block von 4096 Byte kopiert hat.
 
Neben der Blockgröße können Sie angeben, wie viele dieser Blöcke Dd lesen soll: Um 40 MByte zu kopieren, schreiben Sie <tt>bs=1M count=40</tt>. Dabei spezifiziert die Option <tt>count</tt> die Anzahl der Blöcke. Das macht beispielsweise Sinn, wenn Sie den Boot-Sektor einer Festplatte sichern wollen -- Sie kopieren in diesem Fall nur den ersten, 512 Bytes großen Block mit dem Aufruf:
 
dd if=/dev/hda of=bootsektor bs=512 count=1
 
==== Letzte Rettung ====
Das Programm Dd erweist sich auch als unverzichtbarer Helfer, wenn es um die Rettung von Daten aus zerstörten Dateisystemen geht. Bevor Sie sich an die Reparatur begeben, sollten Sie zunächst ein Backup vornehmen. Dazu erstellen Sie mit Dd eine 1:1-Kopie des zerstörten Systems und führen auf dieser die Reparaturversuche durch.
 
Da Dd standardmäßig zerstörte Sektoren von der Kopie ausschließt, setzen Sie die Parameter <tt>conv=noerror,sync</tt> ein:
 
dd bs=512 conv=noerror,sync if=/dev/hda of=/dev/hdb
 
Auf diese Weise teilen Sie Dd mit, dass es mit dem Lesen und Ablegen von Daten auch dann fortfahren soll, wenn es defekte Sektoren findet. Dabei sorgt <tt>noerror</tt> dafür, dass Dd bei Fehlern nicht abbricht, und <tt>sync</tt> füllt unlesbare Sektoren mit Nullen auf.


=== ISO-Images mit Mkisofs ===
=== ISO-Images mit Mkisofs ===

Version vom 17. Februar 2022, 14:13 Uhr

Motivation und Zielsetzung

Die Aufgabe von IT-Systemen ist die Verarbeitung und Verwaltung digitaler Daten, die dazu vorübergehend oder dauerhaft auf Datenträgern gespeichert werden. Die Sicherung dieser Daten soll die Rückkehr in einen vorherigen Zustand gewährleisten. Die regelmäßige Sicherung des Datenbestandes zählt zu den wichtigsten Aufgaben eines Systemverwalters.

Daten sind verschiedenen Einflüssen ausgesetzt. Dem Schichtenmodell entsprechend können auf jeder Ebene Anomalien auftreten. Zum Beispiel:* Defekte an der Hardware (Datenträger, Controller)

  • Fehler im Dateisystem
  • Fehler bei der Administration
  • Dateikorruption durch Schadsoftware
  • Ausfall des Systems
  • Fehlfunktion nach Update
  • Versehentliches löschen von Daten

Um jeder dieser Situationen gerecht zu werden ist es möglich auf folgenden Ebenen Daten zu sichern:* Datenträger

  • Partition
  • Dateisystem

Datensicherungsstrategien

Die Begriffe »Backup« und »Archiv« verwenden wir im weiteren Verlauf synonym. Allgemein bezeichnen wir als ein Archiv einen Container von Daten, der aufbewahrt wird, um genau auf diese Daten später zugreifen zu können. Archive legt man an, um momentan nicht benötigte Daten von der Festplatte zu verbannen oder um sie von einem Rechner auf einen anderen zu kopieren...

Die Motivation zu einem Backup resultiert aus anderen Überlegungen. Hier ist die Absicht, einen bestimmten Systemzustand aufzuzeichnen. Dabei bezieht man sich nicht auf den konkreten Inhalt einer Datei - wie bei Archiven - sondern ordnet eine Datei in die Schublade »wichtig« oder »unwichtig« ein, je nachdem, ob sie von meiner Backupstrategie betroffen sein wird oder nicht.

Grundsätzlich werden zwei Arten des Backups unterschieden. Das volle Backup sichert stets den kompletten Bestand an Daten, während das inkrementelle Backup nur Daten archiviert, die innerhalb einer bestimmten Periode modifiziert wurden. Dabei steht die Periode meist für den Zeitraum seit der letzten Sicherung.

Ein volles Backup ist wegen des hohen Bedarfs an Zeit (die Sicherung erfolgt meist auf ein Bandmedium) weniger für den täglichen Einsatz geeignet, deswegen entscheidet man sich heute meist für eine Mischform aus voller und inkrementeller Datensicherung. Hierbei wird zu einem Zeitpunkt der komplette Datenbestand gesichert und nachfolgend - in regelmäßigen Abständen - archiviert man nur die modifizierten Daten.

Die tatsächlich gewählte Strategie des inkrementellen Backups hängt stark von der »Statik« der Daten und vom Sicherheitsbedürfnis des Administrators ab. Im einfachsten Fall betrifft das Backup jeweils alle modifizierten Daten seit dem letzten vollen Backup bis hin zum aktuellen Zeitpunkt. Das umgekehrte Verfahren ist die Aufzeichnung der Änderungen seit der letzten inkrementellen Sicherung. Während in ersterem Fall nur die Archive des vollen und letzten inkrementellen Backups aufbewahrt werden müssen, sind beim zweiten Vorgehen das volle Backup und sämtliche inkrementellen Datensicherungsarchive aufzuheben. In der Praxis findet man auch Archivierungsformen zwischen den beiden beschriebenen Extremen (Multilevel-Backups).

Bedenken Sie, dass ein Festplattenfehler Sie auch während der Aufzeichnung eines Backups ereilen kann. Überschreiben Sie daher niemals ihre aktuelle Sicherungskopie.

Bei der Vorstellung der Backup-Werkzeuge beschränken wir uns auf Programme, die der GPL oder einer ähnlichen Lizenz unterstehen. In vielen Fällen lassen sie die Bedienfreundlichkeit kommerzieller Produkte vermissen, jedoch ist es durchaus möglich - die notwendigen Kenntnisse vorausgesetzt - diese in Skripten so zu kapseln, dass sie zum einen die Funktionalität und zum anderen die einfache Benutzbarkeit ausgereifter Werkzeuge erreichen.

Medien für die Datensicherung

Zunächst ist einfach nachvollziehbar, dass die Speicherkapazität des Backupmediums dem aufkommenden Datenvolumen entsprechen muss. Ein volles Backup könnte man durchaus auch auf Disketten vornehmen, jedoch wird man des Wechsels sicherlich bald überdrüssig und die Diskette ist selbst schon Quelle des lauernden Datenverlusts. Wer kennt nicht das leidige »Can't read sector xxx.«? Besser geeignet - vor allem bei dem geringeren Datenaufkommen des inkrementellen Backups - sind ZIP-Disketten.

Traditionell sind Magnetbänder (Quarter-Inch- und DAT-Streamer) weit verbreitet. Sowohl Kapazität als auch Zuverlässigkeit sprechen für dieses Medium. Leider lässt sich auf einem Band kein Dateisystem einrichten, so dass die Daten mit Hilfe spezieller Programme sequentiell auf dieses abgelegt werden müssen. Im Falle eines »Restores« muss demnach der gesamte Bandinhalt zurückgespielt werden, da ein wahlfreier Zugriff nicht möglich ist. Ein Magnetband muss vor dem Zugriff zurückgespult werden, hierzu nutzt man das Kommando mt mit der Option rewind :

user@sonne> mt -f <Device> rewind

Es ist außerdem möglich, mehr als ein Archiv auf einem Band unterzubringen, immer vorausgesetzt, die Speicherkapazität setzt keine Schranken:

# Band zur ersten Dateiende-Markierung spulen

user@sonne> mt -f <Device> fsf 1
# Band zur dritten Dateiende-Markierung spulen
user@sonne> mt -f <Device> fsf 3
# Band zur letzten Dateiende-Markierung spulen
user@sonne> mt -f <Device> eof

Waren früher die Medien für einem Streamer die preiswerteste Alternative, so geht heute nichts über eine Festplatte. Dem System eigens für die Datensicherung eine eigene Platte zu spendieren, mag auf den ersten Blick befremdend erscheinen, jedoch erhält man für den Preis eines Streamers eine Menge Festplattenspeicher. Die weiteren Vorteile liegen im wahlfreien und wesentlich zügigerem Zugriff. Allerdings schützt die eingebaute Festplatte nur mäßig vor mutwilliger Sabotage, hier kann eine Datensicherung auf einem anderen Rechner (über das Netz) Abhilfe bringen. Die durch RAID-Systeme realisierbare Datenredundanz schützt nur vor Hardwareausfall einer Festplatte, hat also nichts mit einem Backup zu tun!

Während sich die »normale« CD-ROModer DVD wegen der nur einmaligen Beschreibbarkeit eher als Medium zur reinen Archivierung eignet, kann die CD-RW und vor allem die DVD-RW durchaus für die alltägliche Datensicherung eingesetzt werden. Allerdings erfordern umfangreiche Backups, die die Kapazität einer einzelnen CD-ROM übersteigen, die Anwesenheit des Administrators.

Welche Daten sollten gesichert werden?

Es lohnt sich, etwas Zeit in den Plan zu investieren, welche Daten denn überhaupt den Aufwand eines Backups rechtfertigen.

Vielleicht beginnen wir mit Daten, die sichere Kandidaten sind. Da wären: * Die Daten unter /home. Klar, die Benutzer ziehen sich ja täglich neue Daten aus dem Netz.

  • Die Daten unter /etc. Oder haben Sie Interesse, Ihr System komplett neu konfigurieren zu müssen?
  • Die Daten unter /var. Hier liegen Protokolle, Mails, Druckaufträge... also Daten, die i.d.R. permanenter Änderung unterliegen.
  • Projektverzeichnisse, Datenbanken,. ..???

Als Daten, deren Aufzeichnung Sie sich getrost sparen können, sind all jene zu nennen, die ohnehin auf einem anderen Medium vorhanden sind, zum Beispiel die Daten der Linuxdistribution, die auf CD-ROM im Schrank liegen. Ebenso sollten Dateisysteme, die von entfernten Rechnern gemountet wurden, besser von dessen Backup-Strategie erfasst werden.

Aber letztlich ist es die Ermessensfrage des Administrators, welche Daten er für sicherungswürdig erachtet. Eine Neuinstallation von Linux hat ja manchmal auch den Vorteil, etwas Ordnung im System zu schaffen..

Dateien komprimieren/archivieren

Dateien in Archive zu verpacken und ihre Größe durch Kompressionsalgorithmen zu verkleinern ist ein häufiger Vorgang in der Datenverarbeitung. Grundsätzlich unterscheidet man zwischen Archiven und komprimierten Dateien.

Ein Archiv ist ein unkomprimierter Behälter für Dateien. Dieses Archiv kann durch Kompressionsverfahren komprimiert werden. Es gibt allerdings ein paar Formate, die gleich auch eine Komprimierung beinhalten.

Archivformate

Es gibt sehr viele verschiedene Formate zum Komprimieren von Daten. Soweit bekannt, lassen sich sämtliche Formate unter Linux benutzen, zumindest jedoch kann man die Dateien öffnen (entpacken). Bekannte Formate unter Linux/Unix sind folgende:* gzip - Kurze Laufzeit, Endung .gz

  • bzip2 - Hohe Kompressionsrate, Endung .bz2
  • xz - Neueres, 7z ähnliches Format, Endung .xz

Hierbei ist zu beachten, dass unter Linux erst die oft genutzte Kombination aus dem Archivprogramm tar und einer Kompression mittels gzip oder bzip2 ein komprimiertes Archiv ergibt. .tar.gzoder .tar.bz2-Dateien sind also .tar Archive, die mit dem entsprechenden Kompressionsverfahren komprimiert wurden.

Unter Windows sind vor allem die folgenden Formate gebräuchlich, die sich aber auch unter Linux benutzen lassen:* ZIP - Das wohl bekannteste Packformat, gleichzeitig auch die Dateiendung .zip

  • RAR - Bekanntes Dateiformat, gleichzeitig auch die Dateiendung .rar
  • ACE - ACE Packformat, sehr leistungsfähig, gleichzeitig auch die Dateiendung .ace
  • 7z - Freies Packformat, sehr leistungsfähig und quelloffen. Dateiendung .7z

Welches Format man wählt hängt vom Verwendungszweck ab. Möchte man Mails auf einem Server im laufenden Betrieb komprimieren dann sollte der Prozess den Server nicht zu stark beanspruchen damit der Mailverkehr nicht beeinträchtigt wird.

Hat man jedoch nur sehr wenig Platz so kann man eine stärkere Komprimierung wählen, dies benötigt jedoch auch mehr Leistung und dauert länger. Der folgende Test samt Auflistung stammt aus dem Artikel qt4-fsarchiver und soll ein Gefühl für Komprimierung und Geschwindigkeit vermitteln.

Für den gesamtem Test lagen folgende Bedingungen zu Grunde: * Quellmedium: ganze Partition

  • Partitionstyp: Kubuntu Lucid root-Partition (breit gestreute Datenformate); ohne das /home Verzeichnis (liegt in separater Partition)
  • Partitionsgröße: 15 GiB; tatsächlicher Dateninhalt 4,43 GiB; 189807 Dateien und Verzeichnisse
Kompressionsübersicht
Modus/Stufe Komprimierte Größe (~ GiB) Zeitaufwand Ersparnis in ~ %
lzo (keine Unterstufen) 2.141.695.938 Byte (1.99 GiB) 11 min 12 Sek 55,1
gzip fast 1.822.273.889 Byte (1.7 GiB) 12min 11 Sek 61,6
gzip standard 1.695.248.687 Byte (1.58 GiB) 12 min 49 Sek 64,3
gzip best 1.688.266.397 Byte (1,57 GiB) 23 min 52 Sek 64,6
bzip2 fast 1.660.019.964 Byte (1,55 GiB) 26 min 11 Sek 65
bzip2 good 1.637.605.954 Byte (1,53 GiB) 28 min 23 Sek 65,5
lzma fast 1.597.604.088 Byte (1,49 GiB) 19 min 19 Sek 66,4
lzma medium 1.480.208.664 Byte (1,38 GiB) 59 min 4 Sek 68,8
lzma best 1.461.640.213 Byte (1,36 GiB) 67 min 0 Sek 69,3

Programme

Um diese Formate unter Linux packen und entpacken zu können, benötigt man für jedes Format ein eigenes Programm. Für die großen Desktop-Umgebungen GNOME und KDE gibt es Archivmanager, die über eine komfortable grafische Oberfläche verfügen, jedoch auf die Einzelprogramme zurückgreifen. Daher müssen diese auf jeden Fall installiert sein.

Um mit sämtlichen oben genannten Formaten umgehen zu können, müssen die folgenden Pakete installiert [1] werden.

Die ersten fünf Pakete sollten bereits nach einer Standardinstallation vorhanden sein.

  • tar - ein Archivierungsprogramm, das unter Linux oft mit GZip oder BZip verwendet wird
  • bzip2 - für Dateien vom Typ BZip
  • gzip - für Dateien vom Typ GZip
  • lzop - auf Geschwindigkeit optimiertes Packprogramm
  • zip - zum Packen von Zip-Archiven
  • unzip - zum Entpacken von Zip-Archiven
  • xz-utils und xz-lzma - für XZ-Dateien und den Vorgänger LZMA
  • p7zip-full (universe) - zum Packen/Entpacken mittels LZMA Algorithmus von 7-Zip-Archiven und Entpacken von AES-verschlüsselten Zip-Archiven
  • lha (multiverse, [2]) - ein LZH-Archiver, wird von Ark benutzt

Erwähnenswert ist auch folgende Anwendung, die bereits in der Standardinstallation mit installiert wird: * split - Archive in mehrere (beliebig große) Teile teilen

Für diverse proprietäre Archivformate gibt es die Wahl zwischen einer Open Source Version und einer Version, die unter einer unfreien Lizenz steht, die dafür aber mehr Funktionalität bietet. So können beispielsweise nur die proprietären Versionen mit Passwörtern geschützte Archive extrahieren usw. Man sollte hierbei darauf achten, dass entweder die proprietäre oder die freie Version installiert ist.

Ace
  • unace (universe)
  • unace-nonfree (multiverse)

Hinweise: unace-nonfree ist erst ab Ubuntu 7.04 Feisty Fawn verfügbar, und funktioniert nicht mit dem Archivmanager File Roller von GNOME.

Rar

Für rar Dateien muss eines der folgenden Pakete installiert werden: * rar (multiverse - zum Erstellen von Rar-Archiven )

  • unrar (multiverse)
  • unrar-free (universe)
  • p7zip-rar (universe)
  • unar (universe)
Hinweis

RAR und Ace sind proprietäre Dateiformate. Das heißt, die Mechanismen zum Erstellen und Entpacken solcher Archive beruhen auf geschützten

Closed-Source Verfahren. unrar-free "{en}"und unace sind Versuche, die wichtigsten Funktionen zum Entpacken unter einer offenen Lizenz bereit stellen zu können. unrar "{en}"und unace-nonfree sind kommerzielle Software von den Herstellern der beiden Formate.

Welches dieser Pakete man installieren soll, ist dem Benutzer selber überlassen. Möchte man ein Computersystem ohne proprietäre Software, so sollte man die freien Pakete nutzen, muss aber mit der Einschränkung leben, nicht alle Archive entpacken zu können.

Möchte man alle Archive inklusive beispielsweise dem RAR 3.0 Format und Passwort geschützte Archive entpacken, so muss man auf die proprietären Pakete zurückgreifen.

Archivmanager

Datei:Grafik11.png

Die großen Desktop-Umgebungen bringen von Haus aus Archivmanager mit, die Daten (de-)komprimieren können.

Dabei sollte man im Kopf behalten, dass diese Archivmanager nur grafische Frontends für die einzelnen Packprogramme sind, die etwas weiter oben beschrieben werden.

Ubuntu installiert aus lizenzrechtlichen Gründen standardmäßig keine Packprogramme für beliebte Archivformate wie Rar oder 7z.

Diese müssen also wie oben beschrieben installiert sein, damit die Archivmanager solche Archive verarbeiten können.

File Roller

File Roller /http://fileroller.sourceforge.net/) ist der Archivmanager der Unity und GNOME Desktop-Umgebung. Es wird direkt bei der Installation von Ubuntu mitinstalliert.

File Roller ist vollständig in Nautilus, dem Dateimanager von der GNOME Desktop-Umgebung integriert. Ein Doppelklick links auf ein Archiv öffnet dieses in File Roller. Will man ein Archiv anlegen, so markiert die zu archivierenden Dateien in Nautilus und wählt "Komprimieren ..." oder "Archiv anlegen" aus dem Kontextmenü.

ARK
Datei:Grafik15.png

Ark ist der Archivmanager der Desktop-Umgebung KDE. Das Programm wird automatisch bei der Installation von Kubuntu installiert.

Das Programm selber findet man unter* "K-Menü -> Dienstprogramme -> Ark (Archivprogramm)"

oder man startet es, indem man ein Archiv aus einem Dateimanager heraus öffnet.

Xarchiver
Datei:Bild1.png

Xarchiver ist der Archivmanager der Desktop-Umgebung Xfce und wird automatisch mit Xubuntu installiert.

Das Programm selbst findet man im Anwendungsmenü unter "Zubehör -> Xarchiver" oder man startet es, indem man ein Archiv aus dem Dateimanager heraus öffnet.

Squeeze

Squeeze (http://squeeze.xfce.org/) ist ein moderner, fortgeschrittener, schneller und einfach zu bedienender Archivmanager für Xfce. Weitere Informationen im Artikel Squeeze (http://wiki.ubuntuusers.de/Squeeze).

7z

7z ist sowohl ein Dateiformat als auch ein Kommandozeilenprogramm zur Datenkompression. Es handelt sich um die Referenzimplementierung des hocheffizienten, freien LZMA-Algorithmus', der die allermeisten anderen Algorithmen in ihrer Kompressionsstärke mitunter deutlich übertrifft.

Ein Beispiel: LZMA komprimiert durchschnittlich 50% stärker als der Deflate-Algorithmus des weit verbreiteten ZIP-Formats. Auch mit proprietären, kommerziellen Formaten wie RAR kann sich 7z messen. Sensible Daten können per AES-256 verschlüsselt werden und ein Archiv kann bei Bedarf in beliebig große Teile zerlegt werden.

Dank seiner Open-Source-Entwicklung hat 7z mittlerweile große Verbreitung gefunden. Die Standard-Archivmanager File-Roller (GNOME), Xarchiver (XFCE/LXDE) und Ark (KDE) kommen mit dem Format zurecht, indem sie auf das hier beschriebene 7z-Terminalprogramm zurückgreifen.

Auch für Windows gibt es eine breite Palette an Programmen, die 7z von Haus aus unterstützen. Eine Auflistung findet sich auf der Homepage.

Hinweis

Der LZMA-Algorithmus stellt beim Komprimieren sehr hohe Ansprüche an die Systemleistung, insbesondere an den Arbeitsspeicher. Leistungsschwache Systeme werden spätestens bei großen Datenmengen und höheren Kompressionsstufen völlig in die Knie gehen ("System Lock-up"). Um das Potential voll auszuschöpfen, sollten mindestens 2 GiB Arbeitsspeicher vorhanden sein und auch der Prozessor sollte eine Gesamtleistung von 2 GHz nicht unterschreiten.

Nach der Installation wird p7zip mit 7zr aufgerufen und p7zip-full nur mit 7z. Im Verlaufe dieses Artikels wird von p7zip-full ausgegangen, der Befehl ist bei Bedarf auszutauschen.

Benutzung
Achtung!

7z alleine ist für ein Backup eines kompletten Linux-/Unix-Systems nicht geeignet, da es sämtliche Zugriffsrechte ignoriert. Eine Möglichkeit, dieses Problem zu umgehen, findet sich im Abschnitt Tipps.

Die allgemeine Syntax von p7zip-full lautet:

7z OPTIONEN SWITCHES AUSGABE EINGABE

Beispiel

7z a -t7z -m0=LZMA -mmt=on -mx=9 -md=96m -mfb=256 /home/peter/kirschkuchenrezept.7z /home/peter/kirschkuchenrezept.doc

7z erkennt Verzeichnisse (rekursives arbeiten) selbstständig, es muss kein spezieller Parameter angegeben werden. Optionen werden immer als Buchstaben am Anfang angegeben, während die darauf folgenden Switches immer ein vorstehendes - haben.

Optionen

Mit den Optionen wird zuerst grob festgelegt, was zu tun ist.

Optionen
Option Beschreibung
a Dateien/Verzeichnisse einem Archiv hinzufügenoder eine Archivdatei erstellen
d Dateien/Verzeichnisse aus einem Archiv löschen
e Einfaches Entpacken aller Dateien aus dem Archiv
l Inhalt eines Archivs auflisten
t Archiv auf Beschädigungen prüfen
u Archivinhalt aktualisieren
x Archiv entpacken und dabei die Verzeichnisstruktur erhalten
Switches

Im folgenden nur ein Auszug der wichtigsten Switches, welche die genaue Vorgehensweise festlegen. Der Fokus liegt hier auf dem LZMA-Algorithmus. Informationen zu weiteren Switches finden sich in den Manpages.

Switches
Switch Beschreibung
-l keine Symlinks archivieren, sondern ihr Ziel
-m Algorithmus für Kompression festlegen (zum Beispiel -m0=LZMA)
-mhe=on Den Header des Archivs verschlüsseln
-oZIEL Nicht ins gleiche Verzeichnis entpacken (Standard), sondern nach "ZIEL"
-pPASSWORT Archiv mit Passwort schützen
-tDATEIFORMAT Dateiformat festlegen (zum Beispiel -t7z)
-mmt=on Multithreading für Mehrkernprozessoren oder Multiprozessorsysteme aktivieren
-mx=STUFE Stufe der Kompressionsstärke (1=schnell und schlecht, 9=langsam und gut)
-mfb=NUMMER Anzahl der Wörterbücher (8, 12, 16, 24, 32, 48, 64, 96, 128, 192, 256, 273)
-md=NUMMER Größe der Wörterbücher (64k, 1m, 2m, 4m, 6m, 8m, 12m, 16m, 24m, 32m, 48m, 64m, 96m, 128m)
-ms=on Progressive ("solid") Kompression
Tipps
  • Je höher die anstehenden Nummern bei den Switches -mfb und -md sind, desto stärker ist die Kompression. Dies wirkt sich allerdings nicht nur auf die benötigte Zeit des Vorgangs aus, sondern auch auf die Systemauslastung, insbesondere die des Arbeitsspeichers. Es sei nochmals darauf hingewiesen, dass der Switch -md nicht die maximale Beanspruchung des Arbeitsspeichers definiert.
  • Die progressive Komprimierung wird die Effizienz immer dann erhöhen, wenn mehrere Dateien gepackt werden sollen – insbesondere, wenn diese sich ähneln. Der nötige Aufwand kann durch die Methode jedoch stark in die Höhe schießen, sie sollte mit Bedacht eingesetzt werden. Ist ein Archiv progressiv komprimiert worden, können einzelne Dateienoder Verzeichnisse nur entpackt werden, indem alles, was sich im Archiv davor befindet, abgearbeitet wird. In einem solchem Szenario dauert das Entpacken länger. Beim Entpacken des gesamten Archivs gibt es hingegen keinen sonderlichen Zeitunterschied.
  • Um doch ein Backup eines Linux-/Unix-Systems mit 7z zu komprimieren, empfiehlt es sich, dieses vorher mit tar zu einem einzelnen Datenstrom zusammenzufügen. Beispiel:

tar cf - PFAD | 7za a -si ERGEBNIS.tar.7z

Das Entpacken eines solchen Archives läuft dann wieder in umgekehrter Reihenfolge ab (Achtung! Das Zielverzeichnis ZIELPFAD muss vorhanden sein!):

7za x -so ERGEBNIS.tar.7z | tar xf - -C ZIELPFAD

Terminal

Man muss nicht zwangsläufig auf die graphischen Archivmanager zurückgreifen. Alle Packprogramme kann man auch von einem Terminal heraus bedienen. Wichtig dabei ist natürlich, dass die oben genannten Packprogramme installiert sind.

Ace

# Falls unance-nonfree installiert ist unace (OPTIONEN) ARCHIVNAME.ace # Falls unace installiert ist unace e ARCHIVNAME.ace

Rar
Archive erstellen

# Allgemein rar a ARCHIVNAME DATEI1 (DATEI2) ... # Beispiel rar a -v2048 test.rar -p datei1 datei2 datei3

Archive entpacken

Manche unter Windows erstellte Rar-Archive lassen sich aus unbekannten Gründen nicht mit Ark unter KDE öffnen. Hier ist man gezwungen, auf das Entpacken im Terminal zurückzugreifen, was in der Regel einwandfrei funktioniert. Dazu geht man wie folgt vor:

# Allgemein unrar x ARCHIVNAME.rar # Beispiel unrar x -pPasswort ~/Desktop/beispiel.rar

Ein Sonderfall ergibt sich, wenn bei einer passwortgeschützten Datei das Passwort mit Sonderzeichen, wie etwa ~ endet. In diesem Fall führt der o. g. Befehl zu der Fehlermeldung

bash: !~: event not found

Das Problem kann man umgehen, indem man zunächst das Entpacken ohne Passworteingabe einleitet (siehe Befehl oben). Dann wird man automatisch nach dem Passwort gefragt, welches man nun eingeben kann. Achtung: Das Passwort wird bei der Eingabe nicht angezeigt.

Enter password (will not be echoed) for Dateiname.rar:

Kommandos / Optionen Bemerkung
a Dateien sollen hinzugefügt werden.
e Dateien sollen entpackt werden.
x Dateien sollen in die in der Datei enthaltene Verzeichnisstruktur entpackt werden.
-m[KOMPRESSIONSLEVEL] Setzt den Kompressionslevel ( -m0 = ohne; -m3 = standard; -m5 = maximal) (optional).
-v[GROESSE][EINHEIT] Legt die Dateigröße fest, als Einheit kann man u.a. Byte (b), Kilobyte (k), und Megabyte (m) wählen. Wenn man nun Teilarchive haben will, die zum Beispiel 100 Megabyte groß sind, wählt man folgende Option -v100m. Die Größe der Teilarchive geht bei 1000 Bytes los, kleinere Teilarchive kann man nicht erstellen (optional).
-rr[GROESSE][EINHEIT] Fügt Wiederherstellungsinformationen hinzu. Diese können bspw. in Prozent angegeben werden, für fünf Prozent gibt man also -rr5% an. Wird keine Einheit angegeben, gibt die Größenangabe die Anzahl der Sektoren an, die zur Wiederherstellung verwendet werden können (optional).
-p Setzt ein Passwort, das man nach der Eingabe festlegt (optional).
-hp Setzt auch ein Passwort, Unterschied zu -p ist, dass das Archiv nun komplett verschlüsselt wird, das heißt die Dateinamen im Archiv werden auch verschlüsselt (optional).
tar.gz/tar.bz2
tar.gz
Archive erstellen

# Allgemein tar -czf ARCHIVNAME.tar.gz DATEI1/VERZEICHNIS1 (DATEI2/VERZEICHNIS2) ... # Beispiel tar -czf beispiel.tar.gz test example # oder tar -czf beispiel.tar.gz test/

Dabei wird im ersten Beispiel ein Archiv beispiel.tar.gz aus den Dateien test und example erstellt. Im zweiten Beispiel wird aus dem Verzeichnis test/ ein Archiv erstellt.

Archive entpacken

# Allgemein tar -xzf ARCHIVNAME.tar.gz # Beispiel tar -xzf beispiel.tar.gz

tar.bz2
Archive erstellen

# Allgemein tar -cjf ARCHIVNAME.tar.bz2 DATEI1/VERZEICHNIS1 (DATEI2/VERZEICHNIS2) ... # Beispiel tar -cjf beispiel.tar.bz2 test example # oder tar -cjf beispiel.tar.bz2 test/

Dabei wird im ersten Beispiel ein Archiv beispiel.tar.bz2 aus den Dateien test und example erstellt. Im zweiten Beispiel wird aus dem Verzeichnis test/ ein Archiv erstellt.

Archive entpacken

# Allgemein tar -xjf ARCHIVNAME.tar.bz2 # Beispiel tar -xjf beispiel.tar.bz2

Dabei entsteht in der Regel ein neues Verzeichnis, in welches man dann wechseln kann. Manchmal möchte man den Inhalt des Archivs auch direkt an einen Ort entpacken (für .tar.bz2 bitte die Befehle entsprechend ändern):

# Allgemein tar -xjf ARCHIVNAME.tar.bz2 -C ZIELORDNER # Beispiel tar -xjf php-5.1.0.tar.bz2 -C /opt/php5

UnZip

# Datei entpacken unzip ARCHIVNAME.zip # in Ordner entpacken unzip ARCHIVNAME.zip -d ZIELORDNER

atool, Unpack und dtrx

Um sich nicht die unterschiedlichen Befehle und Parameter der verschiedenen Archivformattools zu merken, gibt es atool "{en}", Unpack "{en}"oder dtrx "{en}". Die Programme kennen die Syntax um Archive zu entpacken und ersparen dem Benutzer die Eingabe des kompletten Befehls. So kann man dann mit einem einzigen Befehl wie

aunpack ARCHIV

oder

unp ARCHIV

oder

dtrx ARCHIV

bequem im Terminal [4] entpacken. Weitere Informationen zu Unpack findet man im Wiki unter unp.

Die Funktionalität von atool geht sogar noch weiter, so können u.a. mit apack Archive erstellt werden oder mit als Archivinhalte aufgelistet werden. atool kann aus den universe-Quellen installiert werden:* atool (universe)

Analog dtrx: * dtrx (universe)

zless und bzless

zless und bzless sind zwei kleine Programme, mit denen sich gepackte Textdateien (.gz und .bz2) betrachten lassen, ohne sie vorher manuell entpacken zu müssen.

Weitere Packprogramme

cabextract

cabextract ist zum Entpacken von Cabinet-Dateien, welche im Format .cab vorliegen, gedacht.

innoextract

innoextract extrahiert Installationsdateien, welche mit Inno Setup erstellt wurden.

unshield

unshield ist wie cabextract zum Entpacken von Cabinet-Dateien gedacht, jedoch für Anwendungen, die InstallShield verwenden.

PeaZip
Datei:Bild4.png

PeaZip ist ein relativ junges plattformübergreifendes Projekt (2005) und stellt eine gute und funktionserweiterte Alternative zu den obigen Archivmanagern dar.

Es unterstützt praktisch alle im Rahmen der lizenzrechtlichen Bestimmungen verfügbaren Formate und bietet eine kaum mehr überschaubare

Vielfalt an Funktionen, Optionen und Filtern. Besondere Beachtung verdienen die umfangreichen Möglichkeiten zur Datensicherheit (verschiedene Verschlüsselungen, Löschen durch mehrfaches Überschreiben usw.).

Im Gegensatz zu den oben beschriebenen Archivmanagern ist PeaZip kein grafisches Frontend für die einzelnen oben beschriebenen Packprogramme, sondern ein eigenständiges Pack- und Archivierungsprogramm.

Es ist also nicht auf die separate Installation von Packprogrammen angewiesen.

Dateien komprimieren mit gzip

Linux:Befehl:gzip

Backup mit tar

Linux:Befehl:tar

Low Level Backup (dd)

Linux:Befehl:dd

ISO-Images mit Mkisofs

Das Programm Mkisofs ("make ISO9660 filesystem") erstellt ausschließlich ISO-Images -- das aber gekonnt und mit vielen zusätzlichen Features. Der einfache Aufruf lautet:

mkisofs Parameter -o datei.iso /Verzeichnis/Daten

Über -o definieren Sie den Namen der Zieldatei. Dahinter geben Sie die Daten an, die ins Image wandern sollen. Als optionale Parameter teilen Sie Mkisofs beispielsweise über -r mit, dass Sie die Rockridge-Erweiterung wünschen. Alternativ darf hier auch -R stehen, um zusätzlich Rechte und Dateieigentümer zu setzen. Die Joliet-Erweiterung schalten Sie entsprechend über -J ein:

mkisofs -J -R -o datei.iso /Verzeichnis/Daten

Über den Parameter -V setzen Sie einen Namen (Volume-ID) für die spätere CD/DVD. Enthält dieser Leer- und Sonderzeichen, schließen Sie ihn in Hochkommata ein:

mkisofs -V "Backup 20060502" ...

Darf es hingegen etwas ausführlicher sein, schalten Sie mit -v ("verbose") auf eine lange Ausgabe um (Abbildung ((1))); mit -quiet hingegen stellen Sie das Programm ruhig. Wer die Statusmeldungen nicht im Terminal sehen will, dennoch aber nicht auf die Informationen verzichten möchte, leitet sie in ein Protokoll (hier: log.txt) um:

mkisofs ... -log-file log.txt ...

((1)) Mkisofs bei der Arbeit -- auf Wunsch zeigt das Tool genau an, was im Hintergrund passiert.

Ideal für Backups

Mkisofs bringt einige praktische Optionen für das regelmäßige Erstellen von Datensicherungen mit. So schließen Sie beispielsweise über die Option -m gezielt Dateien vom Image aus. Hinter dem Parameter geben Sie als weitere Argumente Namen an. Dabei kann Mkisofs auch mit Wildcards umgehen und akzeptiert Mehrfachnennung. Um etwa sämtliche HTML-Dateien nicht ins ISO-Image aufzunehmen, tippen Sie:

mkisofs ... -m *.html -m *.HTML -o backup.iso /home/huhn

Wildcards: Platzhalter, die Teile von Zeichenketten unbestimmt lassen. Ein Fragezeichen ? in einer Zeichenkette lässt nur denjenigen Buchstaben unbestimmt, an dem sich das Fragezeichen befindet, während ein * für beliebig viele verschiedene Zeichen steht.

Über die Option -x klammern Sie bei Bedarf ganze Verzeichnisse aus, falls nötig wiederum mit mehrfacher Angabe:

mkisofs ... -x /tmp -x /var -o backup.iso /

Achten Sie bei der Verwendung dieser beiden Parameter darauf, dass Sie bei der Angabe der zu sichernden Daten keine Wildcards verwenden. Das Kommando

mkisofs ... -m *.html -m *.HTML -o backup.iso *

führt beispielsweise dazu, dass die Shell die letzte Wildcard auflöst und so wieder alle Daten ins Image aufnimmt.

Wer Dateien mit typischen Backup-Endungen, wie z. B. ~, # oder .bak, ausklammern möchte, setzt hingegen einfach die Option -no-bak ein, und schlägt damit sämtliche Fliegen mit einer Klappe.

Erstellen von ISO-Images

Nachdem das Programm erfolgreich installiert wurde, kann es folgendermaßen verwendet werden

mkisofs -l -iso-level 4 -o "Name der ISO Datei" "Name der Quelldatei"

Ist die Quelldatei ein Verzeichnis wird aus dem gesamten Verzeichnis ein ISO-Image erstellt.Wer weitere Einstellmöglichkeiten benötigt kann sich diese über einen Aufruf von

mkisofs -help

in der Konsole anzeigen lassen.

Bootbar bitte!

Um bootbare Medien zu erstellen, greifen Sie beispielsweise auf den Isolinux-Bootloader zurück, der mit Mkisofs Hand in Hand arbeitet:

mkisofs -J -R -o bootcd.iso -b isolinux/isolinux.bin -c isolinux/boot.cat -no-emul-boot -boot-load-size 4 -boot-info-table /Ordner/Daten

Neben den schon bekannten Mkisofs-Optionen taucht hier einiges Neue auf: Hinter -b steht das eigentliche Boot-Image, und über -c geben Sie den Boot-Katalog an. Der Parameter -no-emul-boot weist das Programm an, bei einer Installation von dieser CD keine Emulation zu erstellen, sondern den Inhalt der Abbilddatei auf die Platte zu schreiben. Die Option -boot-load-size 4 definiert, dass das BIOS später vier Sektoren à 512 Bytes für die Boot-Datei bereitstellt. Schließlich erzwingt (-boot-info-table), dass beim Booten Informationen über das Layout des Mediums berücksichtigt werden. Beachten Sie, dass sich das Verzeichnis isolinux unterhalb von /Ordner/Daten befinden muss.

Images testen

Das Kommando Mount bietet eine praktische Option, um ISO-Images vor dem Brennen auf eventuelle Fehler zu überprüfen. Dazu hängen Sie die Abbilddatei unter Angabe des Parameters -o loop testweise ins Dateisystem ein:

mount -o loop datei.iso /mnt/tmp

Beachten Sie, dass der Mount-Punkt existieren muss; außerdem benötigen Sie für diesen Befehl Administratorrechte. Nach Abschluss des Tests hängen Sie das ISO-Image über den Befehl umount /mnt/tmp wieder aus.

Backup mit cpio

cpio erzeugt und verwaltet Dateiarchive verschiedener Formate

cpio {-o|-create} [-0acvABLV] [-C Anzahl] [-H Format] [-M Nachricht] [-O [[User@]Host:]Datei] [-F [[User@]Host:]Datei] [-file=[[User@]Host:]Datei] [-format=Format] [-message=Nachricht] [-null] [-reset-access-time] [-verbose] [-dot] [-append] [-block-size=Größe] [-dereference] [-io-size=Größe] [-force-local] [-help] [-version] < Liste [> Datei] cpio {-i|-extract} [-bcdfmnrtsuvBSV] [-C Anzahl] [-E Datei] [-H Format] [-M Nachricht] [-R [User][:.][Gruppe]] [-I [[User@]Host:]Datei] [-F [[User@]Host:]Datei] [-file=[[User@]Host:]Datei] [-make-directories] [-nonmatching] [-preserve-modification-time] [-numeric-uid-gid] [-rename] [-list] [-swap-bytes] [-swap] [-dot] [-unconditional] [-verbose] [-block-size=Anzahl] [-swap-halfwords] [-io-size=Anzahl] [-pattern-file=Datei] [-format=Format] [-owner=[user][:.][Gruppe]] [-no-preserve-owner] [-message=Nachricht] [-force-local] [-help] [-version] [Muster...] [< Datei] cpio {-p|-pass-through} [-0adlmuvLV] [-R [user][:.][group]] [-null] [-reset-access-time] [-make-directories] [-link] [-preserve-modification-time] [-unconditional] [-verbose] [-dereference] [-owner=[User][:.][Gruppe]] [-dot] [-no-preserve-owner] [-help] [-version] Zielverzeichnis < Liste

cpio ist ein Tool zur Erzeugung und Verwaltung von Dateiarchiven. In einem Dateiarchiv werden mehrere Dateien mit ihren Verzeichnissen und allen Verwaltungsinformationen, wie Eigentümer, Zugriffsrechte Erzeugungszeit etc., zu einer einzigen Datei oder zu einem Datenstrom zusammengefaßt. cpio erzeugt und verarbeitet eine ganze Reihe verschiedener Archivformate. Deshalb ist es besonders gut für den Austausch von Datenbeständen zwischen unterschiedlichen Rechnern geeignet.

cpio kann in drei verschiedenen Modi arbeiten.

Im copy-out Modus werden Daten aus dem Dateisystem in ein Archiv, zum Beispiel auf ein Magnetband, geschrieben. Die Namen der zu archivierenden Dateien liest cpio Zeilenweise von der Standardeingabe. Eine gängige Methode zur Erzeugung einer geeigneten Liste von Dateinamen ist die Verbindung des Ausgabekanals von [../../../ebooks/computer/betriebssysteme/linux/allgemein/unsortiert/linux_anwender_handbuch/linux_anwenderhandbuch_7-0/node54.html#find find] mit dem Eingabekanal von cpio durch eine Pipeline.

Im copy-in Modus werden die Daten vom Archiv in das Dateisystem kopiert. In diesem Modus liest cpio die archivierten Daten von der Standardeingabe. Wenn nicht das gesamte Archiv ausgepackt werden soll, können die gewünschen Dateien durch reguläre Ausdrücke nach den Optionen auf der Kommandozeile angegeben werden.

Im copy-pass Modus werden die Daten wie bei copy-out aus dem Dateisystem gelesen und sofort wieder in ein anderes Verzeichnis geschrieben, ohne daß zwischendurch ein Archiv erzeugt wird. Die Namen der zu kopierenden Dateien werden wie bei copy-out von der Standardeingabe gelesen, der Name des Zielverzeichnisses muß in der Kommandozeile nach den Optionen angegeben werden.

Optionen

-a veranlaßt cpio, nach dem copy-out die letzte Zugriffszeit vor dem Lesen zurückzusetzen
-A die Dateien werden an ein existierendes Archiv angehängt (nur im copy-out Modus auf Blockgeräten möglich)
-b veranlaßt cpio, beim extrahieren von Daten die Bytes von Datenwörtern und Halbwörtern zu tauschen
-B setzt die Blockgröße auf 5120 Bytes anstelle der voreingestellten 512 Bytes
-block-size=Anzahl setzt die Blockgröße auf Anzahlx512 Bytes
-c veranlaßt tar, das alte, portable ASCII Archivformat zu benutzen
-C Größe setzt die Blockgröße (Größe in Bytes)
-d veranlaßt tar, beim Auspacken eines Archivs die notwendigen Verzeichnisse zu erzeugen, wenn sie noch nicht existieren
-E Datei die Liste oder die regulären Ausdrücke zur Bestimmung der zu kopierenden Dateien wird aus der angegebenen Datei und nicht von der Standardeingabe gelesen
-f verkehrt die Wirkung der Listeoder des Musters ins Gegenteil; es werden die Dateien kopiert, die nicht auf das Muster passen
-F [[User@ ]Host:]Datei veranlaßt tar, die angegebene Datei als Archivdatei zu benutzen
-force-local erzwingt die Interpretation eines Archivnamens bei den Optionen -F, -I und -O als lokale Datei, auch wenn in dem Dateinamen ein Doppelpunkt vorkommt
-H Format bestimmt eines der folgenden Archivformate (bei copy-in werden die unterstützten Formate automatisch erkannt):

bin (Voreinstellung bei copy-out) veraltetes Binärformat

odc das alte, portable POSIX-1 Format

newc das neue, portable SVR4 Format; für große Dateisysteme mit mehr als 65536 I-Nodes geeignet

crc wie newc mit zusätzlicher Prüfsumme

tar das alte tar Format

ustar das POSIX-1 tar Format und das GNU-tar Format

hpbin das alte Binärformat des HPUX-cpio

hpodc das portable POSIX-1 Format von HPUX; unterscheidet sich in der Speicherung von Gerätedateien

-i schaltet cpio in den copy-in Modus; die in der Liste angegebenen Dateien werden aus dem Archiv in das System hinein kopiert
-I [[User@ ]Host:]Datei verbindet die Standardeingabe von cpio mit der Datei; gegebenenfalls wird die Verbindung zum Rechner Host hergestellt und die Archivierung mit den Rechten von User ausgeführt
-k ohne Funktion
-l wenn möglich werden Dateien nicht kopiert sondern symbolische Links erzeugt
-L im copy-out oder -pass Modus werden nicht die symbolischen Links kopiert, sondern die referenzierten Dateien
-m das Datum der letzten Änderung bleibt beim Kopieren unverändert
-M Nachricht veranlaßt cpio, die Nachricht auf die Standardfehlerausgabe zu schreiben, wenn das Backup-Medium voll ist; der Platzhalter `%d' kann benutzt werden, um in der Nachricht die laufende Nummer des aktuellen Bandes auszugeben (Start bei 1)
-n die User- und Gruppen-ID der archivierten Dateien wird beim Listing in numerischer Form ausgegeben
-no-preserve-owner (Voreinstellung für User ohne root-Privilegien) beim Extrahieren von Dateien aus dem Archiv oder beim Kopieren wird die archivierte User- und Gruppen-ID nicht auf die extrahierten Dateien übertragen
-o schaltet cpio in den copy-out Modus; die in der Liste angegebenen Dateien werden aus dem System heraus kopiert und ein Archiv angelegt oder erweitert
-O [[User@ ]Host:]Datei verbindet die Standardausgabe von cpio mit der Datei; gegebenenfalls wird die Verbindung zum Rechner Host hergestellt und die Archivierung mit den Rechten von User ausgefüチhrt
-p schaltet cpio in den copy-pass Modus
-r erlaubt dem Anwender die interaktive Umbenennung von Dateien im copy-in Modus
-R [User ][:.][Gruppe ] die entsprechenden Benutzerrechte vorausgesetzt, werden Eigentümer und/oder Gruppe der Dateien beim Extrahieren geändert
-s die Bytes eines Halbwortes werden beim Extrahieren der Daten vertauscht
-S die Halbworte eines Wortes werden beim Extrahieren der Daten vertauscht
-t zeigt den Inhalt des Archives an
-u beim Extrahieren werden Dateien im Dateisystem ohne Nachfrage durch gleichnamige Dateien aus dem Archiv überschrieben, auch wenn diese älter sind
-v zusammen mit -t wird ein ausführliches Listing des Archivinhalts ausgegeben
-V für jede bearbeitete Datei wird ein Punkt in den Standardfehlerkanal geschrieben
-0 die Elemente der Liste können durch Nullbytes anstelle der normalerweise erwarteten NEWLINE übergeben werden

cpio (cpio in/out) besitzt einen ähnlichen Funktionsumfang wie das zuvor beschriebene Kommando tar, so dass wohl eher die Vorliebe des Benutzers das eine oder andere Werkzeug favorisiert. Ein Vorteil wäre dennoch zu nennen: cpio verzweifelt nicht an beschädigten Archiven und vermag zumindest den unversehrten Teil komplett wieder herzustellen.

cpio MODUS [ OPTIONEN ]

cpio kennt drei Betriebsarten: * copy in zum Extrahieren von Dateien aus einem Archiv: Option -i

  • copy out zum Erzeugen eines Archivs: Option -o
  • pass througth als Kombination aus den obigen Modi erlaubt das Kopieren ganzer Verzeichnisbäume: Option -p

Volles und inkrementelles Backup

Um Dateien in einem cpio-Archiv zu speichern, müssen deren Namen dem Kommando mitgeteilt werden. cpio erwartet allerdings, dass jeder Dateiname auf einer neuen Zeile erscheint. Deshalb füttert man das Kommando am einfachsten über eine Pipe:

user@sonne> ls *.txt | cpio -o > /dev/fd0

11 blocks

Das Beispiel sichert alle auf ".txt" endenden Dateien des aktuellen Verzeichnisses auf die Diskette. Die Ausgabeumleitung ist wichtig, da sonst die Dateiinhalte auf dem Bildschirm landen würden.

Hiermit kennen Sie nun das Prinzip des Backups mit cpio ; zur Implementierung eines inkrementellen Backups bietet sich die Nutzung der Möglichkeiten des Kommandos [../../../../index.php/Linuxfibel_-_Nutzerkommandos_-_Datei_%26_Verzeichnis#find_-_Dateien_suchen find ]an, mit dem nach den verschiedensten Kriterien nach Dateien gefahndet werden kann. So archiviert der Aufruf von:

user@sonne> find /etc -maxdepth 2 -depth | cpio -o > /dev/fd0

319 blocks

alle Dateien aus dem Verzeichnis /etc, wobei alle Unterverzeichnisse, nicht aber die darin befindlichen Unterverzeichnisse berücksichtigt werden. Die Option »-depth« von find bewirkt, dass der Name eines Verzeichnisses selbst erst nach den enthaltenden Daten ausgegeben wird. Bei eventuellem Zurückschreiben der Daten, wird nun der häufige Fehler verhindert, dass ein Verzeichnis mit »falschen« Zugriffsrechten erzeugt wurde und anschließend das Übertragen der Daten in dieses scheitert. Durch die hier gewählte Reihenfolge wird mit der ersten Datei aus dem Verzeichnis dieses mit den korrekten Rechten gesetzt (mit Rechten, die das Schreiben der Datei ermöglichen).

Im Sinne eines inkrementellen Backups ist aber sicher die Suche nach Dateien, die innerhalb einer bestimmten Zeitspanne geändert wurden, interessant. Der nächste Aufruf findet alle Dateien des Verzeichnisses /etc, deren Modifikationszeit nicht älter als 5 Tage ist:

# find /etc -mtime -5 -maxdepth 2 -depth | cpio -o > /dev/fd0

112 blocks

Überprüfung des Archives

Um sich eine Liste der Dateien eines Archives zu betrachten, ruft man das Kommando im »copy in«-Modus auf:

user@sonne> cpio -itvI /dev/fd0

-rw-r--r--   1 root     root          270 Aug 15 07:07 /etc/mtab
-rw-r--r--   1 root     root         2510 Aug 10 13:49 /etc/logfiles
-rw-r--r--   1 root     root        37911 Aug 15 07:06 /etc/ld.so.cache
-rw-r--r--   1 root     root          271 Aug 10 15:27 /etc/hosts.allow
-rw-r--r--   1 root     root         5762 Aug 10 15:27 /etc/inetd.conf
-rw-r--r--   1 root     root         3349 Aug 14 12:18 /etc/printcap
-rw-------   1 root     root           60 Aug 15 07:06 /etc/ioctl.save
-rw-r--r--   1 root     root         3799 Aug 15 09:10 /etc/XF86Config
-rw-------   1 root     root          512 Aug 15 07:07 /etc/ssh_random_seed
-rw-r--r--   1 root     root         3309 Aug 14 12:18 /etc/printcap.old
-rw-rw----   1 lp       lp           1244 Aug 14 12:05 /etc/apsfilterrc.ljet4
-rw-rw----   1 lp       lp           1261 Aug 14 12:37 /etc/apsfilterrc.lj4dith
-rw-r--r--   1 root     root           88 Aug 15 09:38 /etc/dumpdates
drwxr-xr-x  30 root     root            0 Aug 15 08:28 /etc
112 blocks

Die Option -t bewirkt die Anzeige des Archivinhalts und verhindert das Entpacken. -v bringt die Rechte der Dateien zum Vorschein und -I Archiv lässt cpio die Daten aus dem Archiv anstatt von der Standardeingabe lesen.

Ein Vergleich der Dateien im Archiv mit den Dateien im Verzeichnisbaum ist nicht direkt möglich. Hier kann nur ein Entpacken der Daten in ein separates Verzeichnis mit anschließendem Dateivergleich (zum Beispiel mit diff) helfen.

Recovery

Schließlich möchte man die Daten auch wieder zurückschreiben können. Hierzu ist cpio im »copy-in«-Modus wie folgt zu starten:

# cpio -id /etc/mtab < /dev/fd0

cpio: /etc/mtab not created: newer or same age version exists
112 blocks

Im Beispiel stellt cpio nur fest, dass die gewünschte Datei nicht älter ist als die im Archiv enthaltene Version. Also tut das Kommando nichts. -d erzwingt das Anlegen von Verzeichnissen, falls diese nicht schon existieren, die nachfolgende Angabe von zu rekonstruierenden Dateien kann entfallen, dann werden alle Dateien aus dem Archiv extrahiert.

Dump/Restore

Dump/Restore

Links

Intern

Weblinks