Linux-RAID: /dev/md127 und wo es herkommt

Erst gestern ist mir wieder ein seltsames Phänomen auf einem Kundensystem in die Hände gefallen. Das eigentlich konfigurierte Software-RAID im Linux-System des Kunden meldete sich nach dem booten plötzlich als /dev/md127 und nicht, wie es konfiguriert war, als /dev/md2.

Dieses Verhalten ist ziemlich problematisch, wenn man in der fstab nicht mit UUID’s arbeitet, aber auch an anderen Stellen kann der plötzlich entstandene neue Name Probleme verursachen. Ich bin der Sache mal auf den Grund gegangen und habe eine Lösung erarbeitet.

Das Problem, dass das RAID-Device sich plötzlich als md127 im System meldet ist nicht unbedingt selten, wenn man den knapp 75.000 Google-Treffern glauben möchte. Mir ist das auch schon ein paar Mal passiert, ich schenkte dem aber nie wirklich viel Beachtung, weil das Problem nach einem Reboot meist wieder verschwunden war. Meine Kunden sind natürlich darauf angewiesen, dass ihre Server sauber starten, weshalb ich das Problem hoffentlich dauerhaft behoben habe.

Laut diversen Quellen im Internet, existiert das Problem hauptsächlich auf Ubuntu-Systemen, mir ist es allerdings auch auf Debian-Systemen passiert. Der Grund dafür, dass das RAID-Device mit einem falschen Namen erstellt wird, liegt höchstwahrscheinlich an der Option –name in der /etc/mdadm/mdadm.conf.

When a –name parameter is set, a random (seems to always be 127) md device is created that actually symlinks to /dev/md/NAS:0 or equivalent.
– nasha, ubuntuforums.org

Aha, es wird also ein zufälliger Name gewählt, der offensichtlich immer md127 ist – sehr zufällig…

Das Problem hat sich auf meinen Systemen beheben lassen, indem man in der oben bereits angesprochenen /etc/mdadm/mdadm.conf die –name-Option entfernt, Beispiel:

# definitions of existing MD arrays
ARRAY /dev/md/0  metadata=1.2 UUID=bfa3e320:23df5a77:dedc7fe0:5a588a5d 
ARRAY /dev/md/1  metadata=1.2 UUID=4c6ec26b:9d827a34:2d90e99e:4731c908

Auch nach mehreren Neustarts und komplettem Ausschalten der betroffenen Systeme wurde kein falsches Device mehr erstellt, der Bug scheint also dadurch tatsächlich behoben worden zu sein. Nachteile durch die Entfernung der –name-Option sind mir nicht bekannt.

1 Gedanke zu „Linux-RAID: /dev/md127 und wo es herkommt“

  1. Hallo Herr Pratt,
    folgende Fehlermeldung habe ich täglich. Die Platte „md device /dev/md/ubuntu-server:0.“ habe ich nicht als RAID eingebunden, sondern nachträglich als Einzelplatte.
    Mein System ist ein OMV 5.6
    Kann ich die Platte einfach austragen?

    /etc/mdadm/mdadm.conf.

    # This file is auto-generated by openmediavault (https://www.openmediavault.org)
    # WARNING: Do not edit this file, your changes will get lost.

    # mdadm.conf
    #
    # Please refer to mdadm.conf(5) for information about this file.
    #

    # by default, scan all partitions (/proc/partitions) for MD superblocks.
    # alternatively, specify devices to scan, using wildcards if desired.
    # Note, if no DEVICE line is present, then „DEVICE partitions“ is assumed.
    # To avoid the auto-assembly of RAID devices a pattern that CAN’T match is
    # used if no RAID devices are configured.
    DEVICE partitions

    # auto-create devices with Debian standard permissions
    CREATE owner=root group=disk mode=0660 auto=yes

    # automatically tag new arrays as belonging to the local system
    HOMEHOST
    # instruct the monitoring daemon where to send mail alerts
    MAILADDR juergen_l@t-online.de
    MAILFROM root

    # definitions of existing MD arrays
    ARRAY /dev/md/ubuntu-server:0 metadata=1.2 name=ubuntu-server:0 UUID=0f606183:84067dde:c6b83837:a8ccc183
    ARRAY /dev/md0 metadata=1.2 name=linuxae:Daten UUID=6819a1dc:6a512127:a8f3525e:58192e2b

    Fehlermeldung:
    This is an automatically generated mail message from mdadm
    running on linuxae

    A DegradedArray event had been detected on md device /dev/md/ubuntu-server:0.

    Faithfully yours, etc.

    P.S. The /proc/mdstat file currently contains the following:

    Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
    md127 : active raid1 sdb[1]
    976630464 blocks super 1.2 [2/1] [_U]
    bitmap: 8/8 pages [32KB], 65536KB chunk

    md0 : active raid1 sdc[0] sdd[1]
    3906886464 blocks super 1.2 [2/2] [UU]
    bitmap: 0/30 pages [0KB], 65536KB chunk

    unused devices:

    Antworten

Schreibe einen Kommentar