Linux/Software-RAID/Anlegen

Aus Foxwiki

Festplatten-Cache

  • Bei einem Software-RAID ist es empfehlenswert den Schreib-Cache von Festplatten zu deaktivieren, um bei einem Stromausfall keinen Datenverlust zu erleiden.
  • Ausnahme sind dabei SSDs mit integrierten Kondensatoren, die den Cache-Inhalt bei einem Stromausfall noch auf den Flash-Speicher schreiben (z.B. Intel DC S3510 Series SSDs).

Status Festplatten-Cache überprüfen

  • Überprüfen, ob der Write-Cache einer Festplatte aktiviert oder deaktiviert ist. Hier bei der Festplatte sda.
# hdparm -i /dev/sda
  • Ausgabe:
Model=INTEL SSDMCEAC060B3, FwRev=LLLi, SerialNo=CVLI303201QK060K
Config={ Fixed }
RawCHS=16383/16/63, TrkSize=0, SectSize=0, ECCbytes=0
BuffType=unknown, BuffSize=unknown, MaxMultSect=16, MultSec=16
CurrCHS=16383/16/63, CurSecs=16514064, LBA=yes, LBAsects=117231408
IORDY=on/off, tPIO={min:120,w/IORDY:120}, tDMA={min:120,rec:120}
PIO modes:  pio0 pio3 pio4
DMA modes:  mdma0 mdma1 mdma2
UDMA modes: udma0 udma1 udma2 udma3 udma4 udma5 *udma6
AdvancedPM=yes: unknown setting WriteCache=enabled
Drive confirms to: unknown:  ATA/ATAP-2,3,4,5,6,7
* signifies the current active mode
  • WriteCache=enabled: Festplatten-Cache ist hier also zur Zeit aktiviert.

Festplatten-Cache deaktivieren

  • Mit einem Editor die Konfigurationsdatei von hdparm unter /etc/hdparm.conf öffnen, z.B. mit vim.
  • Dort in der Zeile #write_cache = off Auskommentierung aufheben und Änderung speichern.
# -W Disable/enable the IDE drive's write-caching feature
write_cache = off
  • Nach einem Systemneustart sieht das Ergebnis wie folgt aus:
# hdparm -i /dev/sda
  • Ausgabe:
Model=INTEL SSDMCEAC060B3, FwRev=LLLi, SerialNo=CVLI303201QK060K
Config={ Fixed }
RawCHS=16383/16/63, TrkSize=0, SectSize=0, ECCbytes=0
BuffType=unknown, BuffSize=unknown, MaxMultSect=16, MultSec=16
CurrCHS=16383/16/63, CurSecs=16514064, LBA=yes, LBAsects=117231408
IORDY=on/off, tPIO={min:120,w/IORDY:120}, tDMA={min:120,rec:120}
PIO modes:  pio0 pio3 pio4
DMA modes:  mdma0 mdma1 mdma2
UDMA modes: udma0 udma1 udma2 udma3 udma4 udma5 *udma6
AdvancedPM=yes: unknown setting WriteCache=disabled
Drive confirms to: unknown:  ATA/ATAP-2,3,4,5,6,7
* signifies the current active mode
  • Der Festplatten-Cache ist nun deaktiviert.

Partitionierung

Achtung!
Veränderungen an den Festplatten löschen die vorherigen Inhalte der beteiligten Festplatten.
Es ist daher dringend angeraten, vorher eine Datensicherung durchzuführen.
Zunächst müssen die Bezeichnungen der zu verwenden Festplatten bekannt sein. 
Auf jeder Festplatte wird eine Partition erstellt, die (fast) den gesamten Platz der Platte einnimmt. Im Beispiel wird das Laufwerk /dev/sda vorbereitet. 
Die Schritte müssen für jedes Laufwerk, das am RAID teilnehmen soll, mit der entsprechenden Bezeichnung vom eigenen System wiederholt werden:
  • Eine neue, leere Partitionstabelle auf dem Laufwerk erstellen.
Für neuere PCs mit UEFI Bios: Für ältere PCs mit altem Bios:
# parted /dev/sda mklabel gpt # parted /dev/sda mklabel msdos
  • Eine einzelne Partition erstellen:
# parted -a optimal -- /dev/sda mkpart primary 2048s -8192s  
  • Möchte man die gesamte Platte nutzen, gibt man statt "2048s -8192s" einfach "0% 100%" an.
  • Die neue Partition als RAID-Partition markieren:
# parted /dev/sda set 1 raid on 
Hinweis:
Es werden bewusst 8192 Sektoren am Ende der Festplatte ungenutzt gelassen, um für Ausfälle gewappnet zu sein. 
Falls nach Jahren keine baugleiche Festplatte mehr beschafft werden kann, ermöglicht es der frei gelassene Platz auch Laufwerke als Ersatz zu nehmen, die einige Sektoren weniger haben.
Am Anfang des Laufwerks werden 2048 Sektoren ungenutzt gelassen, um ein optimales Alignment zu ermöglichen. 
  • Über den Parameter -a optimal kümmert sich parted um weitere Anpassungen, falls nötig.
  • Es ist auch möglich, die Laufwerke unpartitioniert zusammenzufassen.
  • Dies birgt jedoch einige Nachteile.
    • Zunächst verkompliziert es das Alignment und kann damit zu Geschwindigkeitseinbußen führen.
    • Außerdem kann im Falle eines Defekts nur ein Laufwerk mit genau gleicher oder höherer Sektorzahl als Ersatz benutzt werden.

Software-RAID anlegen

  • Das Hauptwerkzeug für alle Arbeiten an Software-RAIDs unter Linux ist mdadm.
  • Es bildet die Schnittstelle zu den RAID-Funktionen des Kernels.
  • Mehr Informationen finden sich im Abschnitt MDADM. Hiermit werden auch RAID-Verbunde erstellt:

RAID 1 über zwei Partitionen, sde1 und sdf1:

# mdadm --create /dev/md0 --auto md --level=1 --raid-devices=2 /dev/sde1 /dev/sdf1 

Software-RAID 5 über vier Partitionen:

# mdadm --create /dev/md0 --auto md --level=5 --raid-devices=4 /dev/sde1 /dev/sdf1 /dev/sdg1 /dev/sdh1 

Für weitere Infos siehe Linux:Befehl:mdadm.

Dateisystem

  • Um den RAID-Verbund als normales Speicherlaufwerk zu nutzen, muss noch ein Dateisystem darauf erstellt und dieses ins System eingebunden werden, z.B. ext4.
  • Im Falle eines RAID 1 ist dies recht einfach:
# mkfs.ext4 /dev/md0 
  • Bei komplexeren Verbunden wie RAID 0, 5, 6 oder 10 sollte das Dateisystem auf das RAID angepasst werden, um optimale Leistung zu ermöglichen.
  • Dafür muss zunächst die sog. "Chunk Size", also die Datenmenge, die in einem einzelnen Schreibvorgang geschrieben wird, bekannt sein.
  • Diese lässt sich wie folgt ermitteln:
# mdadm -D /dev/md0 | grep "Chunk Size" 
  • Bei einem RAID 5 mit Standardeinstellungen liefert dies Beispielsweise:
    Chunk Size : 512K
  • Es werden also 512 KiB Chunks verwendet.
  • Hieraus können, zusammen mit der Anzahl der Partitionen und des RAID-Levels, die Dateisystem-Parameter berechnet werden.
  • Alternativ können die Parameter auch von Hand ermittelt werden:
    • block-size - Die Größe der Dateisystemblöcke in Bytes. Heutzutage werden fast ausschließlich 4096 Byte (4 KiB) Blöcke verwendet.
    • stride-size - Die Chunk Size umgerechnet in Dateisystemblöcke. Bei 512 KiB Chunk Size mit 4 KiB Blöcken ergibt sich (512 KiB/ 4 KiB) = 128.
    • stripe-width - Die Größe eines Datenstreifens, also die Menge an Blöcken, die geschrieben wird, wenn ein voller Chunk auf jedes Laufwerk geschrieben wird. Diese berechnet sich aus (stride-size * Anzahl der effektiv nutzbaren Partitionen).

Bei einem RAID 5 über 4 Partitionen ergibt sich beispielsweise (128 * 3) = 384.

  • Details zur Anzahl der effektiv nutzbaren Partitionen finden sich im Abschnitt RAID-Level.
  • Sind die Parameter ermittelt, wird das Dateisystem erstellt:
# mkfs.ext4 -b 4096 -E stride=128,stripe-width=384 /dev/md0

RAID mounten

  • Das RAID muss noch in die Verzeichnisstruktur eingebunden werden.
  • Dies geschieht einfach mittels mount, z.B. am Mountpunkt /media/daten.
# mount /dev/md0 /media/daten 
  • Damit das System beim Start das Dateisystem selber einhängt, muss eine entsprechende Zeile in die Datei /etc/fstab eingetragen werden:
/dev/md0     /media/daten      ext4      defaults 0 2

mdadm.conf aktualisieren

  • Alle Informationen zum RAID werden auf jeder verwendeten Partition in den sog. Superblock geschrieben (auch Metadaten genannt).
  • Der Kernel sucht beim Starten automatisch nach diesen Superblöcken und startet alle voll funktionsfähigen RAIDs, ohne dass eine Konfigurationsdatei nötig ist.
  • Trotzdem kann es sinnvoll sein, eine Konfigurationsdatei zu erstellen, z.B. wenn man über Ausfälle am RAID per E-Mail benachrichtigt werden möchte.
  • Die Konfigurationsdatei kann bequem mit einem Skript von mdadm erstellt werden und enthält dann direkt alle Definitionen aller momentan aktiven RAIDs:
# su -c "/usr/share/mdadm/mkconf > /etc/mdadm/mdadm.conf" 
Achtung!
Je nach Konfiguration kommt es zu Fehlern in der mdadm.conf. 
Daher ist es sinnvoll diese zu überprüfen. Typische Fehler sind, wenn das RAID-System nicht wie im Beispiel als md0 sondern als md127 nach einem Neustart angezeigt wird. 
Das System kommt mit der Option "-name" in der mdadm.conf nicht klar. 
Diese Option auskommentieren und System neu starten.
Um bei Ausfällen per E-Mail benachrichtigt zu werden, muss in der neuen Datei 
/etc/mdadm/mdadm.conf die Zeile
  MAILADDR root
root durch die gewünschte E-Mail-Adresse ersetzt werden. 
Dafür muss der E-Mail-Versand durch das System eingerichtet sein, z.B. via Postfix als Satellitensystem.
  • Über die Konfigurationsdatei können sehr viele Details der RAIDs angepasst werden.
  • Nähere Informationen liefert die Manpage von mdadm.conf.
  • Generell gilt bei neu aufgesetzten RAIDs allerdings: Je weniger, desto besser.
  • Standardmäßig werden alle wichtigen Informationen (Metadaten) direkt auf den beteiligten Partitionen gespeichert, auch wenn nachträglich Änderungen vorgenommen werden.
  • Andererseits haben die Parameter aus der mdadm.conf Vorrang.
  • So ist es z.B. möglich, alle am RAID beteiligten Partitionen in der Datei anzugeben.
  • Ändert sich jedoch die Reihenfolge der Festplatten (z.B. bei Austausch des Controllers, Umstecken der Kabel, Anschließen eines USB-Sticks etc.) ließe sich das RAID nicht mehr starten.
  • Auch dann nicht, wenn in den Superblöcken der RAID-Laufwerke die richtigen Metadaten (unabhängig von den Buchstabenbezeichnungen) gespeichert sind.
  • Dieses Problem lässt sich nur dann beheben, wenn die falschen Angaben in der mdadm.conf korrigiert oder explizit übergangen werden.
  • Damit die Konfiguration beim Booten verfügbar ist, muss schließlich noch die Initrd aktualisiert werden:
# update-initramfs -u -k all