Suche
Suche Menü

Proxmox VE 3.0: Software-RAID

proxmox

Nachdem mir gestern Nacht auf meinem produktiven Webserver einiges aus der Hand glitt, entschied ich mich dazu, endlich auf Proxmox umzustellen. Passenderweise erschien vor einigen Tagen auch noch die neueste Version 3.0 mit Debian Wheezy als Unterbau. – „Let’s do it!“, dachte ich und installierte das ISO… bis mir auffiel, dass meine Maschine keinen Hardware-RAID-Controller besitzt und Proxmox offiziell kein Software-RAID.

Ich übernehme keine Haftung für etwaig entstandene Schäden. Bitte erst denken, dann Befehle abtippen.

Das Software-RAID

Natürlich gibt es trotzdem eine Anleitung, um Proxmox mit einem Software-RAID zu betreiben – allerdings wollte diese bei mir partout nicht funktionieren. Also machte ich mich selbst an die Arbeit… Grundlage ist ein installiertes Proxmox – ext3 oder ex4 spielt keine Rolle.

Installation benötigter Software

apt-get update; apt-get install mdadm

Hier installieren wird die benötigte Software, um überhaupt ein Software-RAID konfigurieren zu können. mdadm stellt ein oder zwei Fragen während der Installation, die getrost abgenickt werden können.

RAID vorbereiten

Nun können wir uns an das RAID-System begeben und die Platten vorbereiten. Wir kopieren die Partitionstabelle von /dev/sda auf /dev/sdb, konvertieren die Partitionen auf /dev/sdb zu RAID-Platten, initialisieren das RAID und speichern die RAID-Konfiguration, damit es nach einem Neustart noch vorhanden ist.

sfdisk -d /dev/sda | sfdisk -f /dev/sdb
sfdisk -c /dev/sdb 1 fd
sfdisk -c /dev/sdb 2 fd
mdadm –create -1 1 -n 2 /dev/md0 missing /dev/sdb1
mdadm –create -1 1 n 2 /dev/md1 missing /dev/sdb2

Hier muss beachtet werden, dass vor „create“ zwei Striche sind – deshalb sollten die Kommandos immer abgetippt werden und nicht kopiert!

/boot auf /dev/md0 kopieren

Zuerst wird /dev/md0 formatiert und gemountet:

mkfs.ext3 /dev/md0
mkdir /mnt/md0
mount /dev/md0 /mnt/md0
cp -ax /boot/* /mnt/md0

Nun wird die /etc/fstab editiert werden – hier suchen wir die Zeile, die

UUID=xxxxxxxxx /boot ext3 defaults 0 1

lautet, löschen den kompletten UUID-Block und fügen /dev/md0 ein:

/dev/md0 /boot ext3 defaults 0 1

Nun starten wir die Maschine einmal durch (reboot) und schauen uns mit

mount | grep boot

an, ob unsere Schritte bis hier her geklappt haben. Hier sollte nun unsere Zeile aus der fstab auftauchen (/dev/md0 on /boot type ext3 (rw)).

Nun sagen wir dem GRUB bescheid, dass wir bitte von /dev/md0 booten möchten:

echo ‚GRUB_DISABLE_LINUX_UUID=true‘ >> /etc/default/grub
echo ‚GRUB_PRELOAD_MODULES=“raid dmraid“‚ >> /etc/default/grub
echo raid1 >> /etc/modules
echo raid1 >> /etc/initramfs-tools/modules
grub-install /dev/sda
grub-install /dev/sdb
grub-install /dev/md0
update-grub
update-initramfs -u

Nun fügen wir noch /dev/sda1 ins RAID ein:

sfdisk -c /dev/sda 1 fd
mdadm –add /dev/md0 /dev/sda1

Das LVM auf /dev/md1 verschieben

Nun sind wir fast fertig und müssen nur noch das LVM, welches Proxmox angelegt hat, auf /dev/md1 verschieben. Das kann durchaus einige Zeit dauern (bei mir – 1 TB – rund 3 Stunden), deshalb sollte der nachfolgende Prozess in einer screen-Session ausgeführt werden.

pvcreate /dev/md1
vgextend pve /dev/md1
pvmove /dev/sda2 /dev/md1
vgreduce pve /dev/sda2
pvremove /dev/sda2
sfdisk –change-id /dev/sda 2 fd
mdadm –add /dev/md1 /dev/sda2

Sobald unsere /proc/mdstat uns nun sagt, dass das RAID gesynced wurde, können wir einen finalen Neustart testen und uns, hoffentlich, an einem Software-RAID erfreuen!

Fragen und/oder Anmerkungen bitte in die Kommentare.
Fragen via E-Mail werden nicht beantwortet!

Autor:

1992 in Kaiserslautern geboren und seit 2012 Fachinformatiker für Systemintegration. Mittlerweile selbstständig im Bereich der Serveradministration.

36 Kommentare Schreibe einen Kommentar

  1. Geht nicht.
    Nach merhmaligem kompletten durchlaufen dieses Tutorials bi ich sicher, dass es einen Fehler hat oder Proxmox 3.x einen Fehler hat.

    Die Zeilen
    vgreduce pve /dev/sda2
    pvremove /dev/sda2
    fuehren dazu, dass nach dem naechsten Reboot die Volume Group PVE nicht ehr gefunden wird. Dadurch wird die gesamte Installation defekt und unbrauchbar.
    Uebrigens deckt sich dieses Tutorial mit dem auf

    Antworten

    • Of course the tutorial works. But first I had the same trouble like you. Maybe the first time I entered something wrong. The second time, after deleting all partitions on sda and sdb from a linux live distro, I mentioned that the data on the /dev/md[0-1] partition was the same like the one of the first run. So just just deleting the partitions and beginning the tutorial from the beginning isn’t enough.

      Third time I have zeroed both drives with the command ‚dd if=/dev/null of=/dev/sd[ab]‘ then installed proxmox again and the tutorial worked like a charm.

      Antworten

  2. You can also use Hetzner’s Rescue System and run „installimage“, choose Virtualization -> Proxmox based on Wheezy.

    It will install Proxmox 3 with software raid, proper lvm groups and network settings.

    Antworten

  3. This HowTo does not work at all.

    I installed Proxmox VE 3.0
    After installation I executed apt-get update and apt-get dist-upgrade
    Then I executed the HowTo but at the command „grub-install /dev/md0“ fail with a segmentation fault.

    root@srv:~# grub-install /dev/md0
    Segmentation fault
    root@srv:~# grub-install -v
    grub-install (GRUB) 1.99-27+deb7u1
    root@srv:~#

    Antworten

  4. Yes
    grub-install /dev/md0
    is not necessary
    It is working fine for me! Thanks for this post

    Antworten

  5. Pingback: How to install PROXMOX VE 3.0 on SOFTWARE-RAID | Boff Blog

  6. I did a post about this installation on my new blog mentioning your post.
    Basically the steps are the same … but I’ve written it in English (at least I tried to do it!)
    I hope this is fine for you.

    Antworten

  7. Hi Dominic,
    many thanks for these instructions! They worked also with proxmox 3.1 (on a small AMD E-350 system!).
    Small corrections: in mdadm –create -1 1 -n 2 /dev/md0 missing /dev/sdb1 there is a „one“ where it should be a small „L“. And in the next line there is missing a „-“ before the „n“.
    The „grub-install /dev/sda“ only worked with „–recheck“ (but that was suggested in the error message).
    Everything else worked like a charm!

    Antworten

  8. Dear Dominic,

    Can you show me how if i want to use RAID 10 ?
    I’ve installed proxmox in server with 4 unit 2TB HDD.
    Right now is only 1 HDD is used.
    please give me some clue…

    Thanks…
    Sorry for bad english.

    Antworten

    • Hi Andy,

      it should be possible in the same way as above – I haven’t done this before… try it in a virtual machine.

      Regards,

      Antworten

  9. Pingback: [Kaufberatung] Homeserver Proxmox/Esxi - Seite 2

  10. Guten Tag. Sagen Sie mir, wie Sie tun können. Kopieren Sie die Partitionierung sda auf sdb. ABER meine HDD 3Tb.
    Ich bin aus Russland, sorry für mein Deutsch.

    Antworten

    • Hallo Serge7y,

      wie das geht, steht oben:

      sfdisk -d /dev/sda | sfdisk -f /dev/sdb
      sfdisk -c /dev/sdb 1 fd
      sfdisk -c /dev/sdb 2 fd

      Ich hoffe, das hilft Ihnen?

      Grüße,

      Antworten

  11. sfdisk -d /dev/sda | sfdisk -f /dev/sdb
    Checking that no-one is using this disk right now …
    BLKRRPART: Device or resource busy

    This disk is currently in use – repartitioning is probably a bad idea.
    Umount all file systems, and swapoff all swap partitions on this disk.
    Use the –no-reread flag to suppress this check.

    Disk /dev/sdb: 364801 cylinders, 255 heads, 63 sectors/track
    Old situation:
    Units = cylinders of 8225280 bytes, blocks of 1024 bytes, counting from 0

    Device Boot Start End #cyls #blocks Id System
    /dev/sdb1 0+ 267349- 267350- 2147483647+ ee GPT
    /dev/sdb2 0 – 0 0 0 Empty
    /dev/sdb3 0 – 0 0 0 Empty
    /dev/sdb4 0 – 0 0 0 Empty

    WARNING: GPT (GUID Partition Table) detected on ‚/dev/sda‘! The util sfdisk doesn’t support GPT. Use GNU Parted.

    New situation:
    Units = sectors of 512 bytes, counting from 0

    Device Boot Start End #sectors Id System
    /dev/sdb1 1 4294967295 4294967295 ee GPT
    /dev/sdb2 0 – 0 0 Empty
    /dev/sdb3 0 – 0 0 Empty
    /dev/sdb4 0 – 0 0 Empty
    Warning: partition 1 does not end at a cylinder boundary
    Warning: no primary partition is marked bootable (active)
    This does not matter for LILO, but the DOS MBR will not boot this disk.
    Successfully wrote the new partition table

    Re-reading the partition table …
    BLKRRPART: Device or resource busy
    The command to re-read the partition table failed.
    Run partprobe(8), kpartx(8) or reboot your system now,
    before using mkfs
    If you created or changed a DOS partition, /dev/foo7, say, then use dd(1)
    to zero the first 512 bytes: dd if=/dev/zero of=/dev/foo7 bs=512 count=1
    (See fdisk(8).)

    WARNING: GPT (GUID Partition Table) detected on ‚/dev/sda‘! The util sfdisk doesn’t support GPT. Use GNU Parted.

    Antworten

      • sfdisk will not work with GPT tables, so you need to use sgdisk in place of sfdisk as per the below, please note that the partition numbers are not the same as under sfdisk due to the 1st partition being used for GPT i believe?

        install gdisk;
        apt-get install gdisk
        replicate new drive from original drive and generate new guid for new drive;
        sgdisk -R /dev/sdb /dev/sda
        sgdisk -G /dev/sdb
        set type to software raid (2/3 below are the partition numbers from sgdisk -p /dev/sdb);
        sgdisk -t 2:fd00 /dev/sdb
        sgdisk -t 3:fd00 /dev/sdb

        i will post my full list of commands below that ive used with this howto once ive finished he process myself :)

        Antworten

  12. no, /dev/sdb – unmount root@demo01:~# mount | column -t
    sysfs on /sys type sysfs (rw,nosuid,nodev,noexec,relatime)
    proc on /proc type proc (rw,nosuid,nodev,noexec,relatime)
    udev on /dev type devtmpfs (rw,relatime,size=10240k,nr_inodes=2011967,mode=755)
    devpts on /dev/pts type devpts (rw,nosuid,noexec,relatime,gid=5,mode=620,ptmxmode=000)
    tmpfs on /run type tmpfs (rw,nosuid,noexec,relatime,size=1611520k,mode=755)
    /dev/mapper/pve-root on / type ext4 (rw,relatime,errors=remount-ro,barrier=1,data=ordered)
    tmpfs on /run/lock type tmpfs (rw,nosuid,nodev,noexec,relatime,size=5120k)
    tmpfs on /run/shm type tmpfs (rw,nosuid,nodev,noexec,relatime,size=3223040k)
    /dev/mapper/pve-data on /var/lib/vz type ext4 (rw,relatime,barrier=1,data=ordered)
    /dev/sda2 on /boot type ext4 (rw,relatime,barrier=1,stripe=4,data=ordered)
    rpc_pipefs on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw,relatime)
    fusectl on /sys/fs/fuse/connections type fusectl (rw,relatime)
    /dev/fuse on /etc/pve type fuse (rw,nosuid,nodev,relatime,user_id=0,group_id=0,default_permissions,allow_other)
    beancounter on /proc/vz/beancounter type cgroup (rw,relatime,blkio,name=beancounter)
    container on /proc/vz/container type cgroup (rw,relatime,freezer,devices,name=container)
    fairsched on /proc/vz/fairsched type cgroup (rw,relatime,cpuacct,cpu,cpuset,name=fairsched)

    Antworten

  13. Servus Dominic,

    bin neu in der Linux Welt und befasse mich gerade mit Proxmox. Ich habe nun zwei Mal versucht ein RAID 1 herzustellen, jedoch bleibe ich immer an der selben Stelle hängen:

    Nach dem Kommando „pvcreate /dev/md1“ bekomme ich die Meldung „Can’t initialize physical volume „/dev/md1“ of volume group „pve1″ without -ff“

    Stelle ich das -ff nach pvcreate und bestätige folgende Meldung mit „y“ bekomme ich diese Fehlermeldung „Can’t open /dev/md1 exclusively. Mounted filesystem?“

    Was mache ich falsch? Danke schon mal im Voraus!

    Antworten

    • Hallo Steffen,

      die Meldung sagt eigentlich alles. Ist md1 gemountet? Falls ja, sollte ein „umount /dev/md1“ helfen. Bist du root?

      Antworten

      • Servus,

        das ist ja das komische. md1 ist nicht gemountet, angemeldet bin ich als root. Habe die aktuelle Version von proxmox installiert.

        Antworten

  14. … dachte ich und installierte das ISO… bis mir auffiel, dass meine Maschine keinen Hardware-RAID-Controller besitzt und Proxmox offiziell kein Software-RAID.

    Das Software-RAID

    Natürlich gibt es trotzdem eine Anleitung, um Proxmox mit einem Software-RAID zu betreiben – allerdings wollte diese bei mir partout nicht funktionieren. Also machte ich mich selbst an die Arbeit… Grundlage ist ein installiertes Proxmox – ext3 oder ex4 spielt keine Rolle.

    Aha!

    Um Proxmox, welches Hardware Raid erfordert, um sich installieren zu lassen, mit Software Raid zu versehen, benötigt man zuerst eine funktionierende Proxmox-Installation, die aber nicht ohne Hardware Raid zu realisieren ist?

    Das klingt ziemlich unlogisch!
    Vielleicht sollte man hier einige Formulierungen etwas präziser gestalten…

    Antworten

  15. Combined effort of:
    http://dominicpratt.de/proxmox-ve-3-0-software-raid/
    http://dominicpratt.de/proxmox-ve-3-0-software-raid/#comment-447

    For the latest ProxMox3.2 install on a DL120 G7 with SoftRAID.

    Installed first only on /dev/sda. Wanted conversion to RAID1.
    No idea what causes the shift in partition numbering, but found out the hard way that there is one additional /dev/?d?1 of 1024K in front of the /boot (/dev/sda2) en / (/dev/sda3) partition. Combined this with the sgdisk instead of the sfdisk and we now have a working system 2 x 1 Tb RAID:

    root@proxmox2:~# sgdisk -R=/dev/sdb /dev/sda
    The operation has completed successfully.

    root@proxmox2:~# sgdisk -G /dev/sdb
    The operation has completed successfully.

    root@proxmox2:~# sgdisk -t 2:fd00 /dev/sdb
    Warning: The kernel is still using the old partition table.
    The new table will be used at the next reboot.
    The operation has completed successfully.

    root@proxmox2:~# sgdisk -t 3:fd00 /dev/sdb
    Warning: The kernel is still using the old partition table.
    The new table will be used at the next reboot.
    The operation has completed successfully.

    root@proxmox2:~# sgdisk -p /dev/sdb
    Disk /dev/sdb: 1953525168 sectors, 931.5 GiB
    Logical sector size: 512 bytes
    Disk identifier (GUID): 8E3763E8-A40E-435F-BD72-4D8B11D0ECD8
    Partition table holds up to 128 entries
    First usable sector is 34, last usable sector is 1953525134
    Partitions will be aligned on 2048-sector boundaries
    Total free space is 3437 sectors (1.7 MiB)

    Number Start (sector) End (sector) Size Code Name
    1 2048 4095 1024.0 KiB EF02 primary
    2 4096 1048575 510.0 MiB FD00 primary
    3 1048576 1953523711 931.0 GiB FD00 primary

    root@proxmox2:~# sgdisk -p /dev/sda
    Disk /dev/sda: 1953525168 sectors, 931.5 GiB
    Logical sector size: 512 bytes
    Disk identifier (GUID): E93C25C7-BC3F-4B43-A03E-1E16DB180D75
    Partition table holds up to 128 entries
    First usable sector is 34, last usable sector is 1953525134
    Partitions will be aligned on 2048-sector boundaries
    Total free space is 3437 sectors (1.7 MiB)

    Number Start (sector) End (sector) Size Code Name
    1 2048 4095 1024.0 KiB EF02 primary
    2 4096 1048575 510.0 MiB EF00 primary
    3 1048576 1953523711 931.0 GiB 8E00 primary

    root@proxmox2:~# mdadm –create /dev/md0 –level=1 –raid-disks=2 missing /dev/sdb2
    mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device. If you plan to
    store ‚/boot‘ on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    –metadata=0.90
    Continue creating array? y
    mdadm: Defaulting to version 1.2 metadata
    mdadm: array /dev/md0 started.
    root@proxmox2:~# mdadm –create /dev/md1 –level=1 –raid-disks=2 missing /dev/sdb3
    mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device. If you plan to
    store ‚/boot‘ on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    –metadata=0.90
    Continue creating array? y
    mdadm: Defaulting to version 1.2 metadata
    mdadm: array /dev/md1 started.

    root@proxmox2:~# cat /proc/mdstat
    Personalities : [raid1]
    md1 : active raid1 sdb3[1]
    976106304 blocks super 1.2 [2/1] [_U]

    md0 : active raid1 sdb2[1]
    521920 blocks super 1.2 [2/1] [_U]

    unused devices:

    root@proxmox2:~# cat /etc/fstab
    #
    /dev/pve/root / ext3 errors=remount-ro 0 1
    /dev/pve/data /var/lib/vz ext3 defaults 0 1
    #UUID=044b28d5-190e-4acd-8684-9157b09d2a9e /boot ext3 defaults 0 1
    /dev/md0 /boot ext3 defaults 0 1
    /dev/pve/swap none swap sw 0 0
    proc /proc proc defaults 0 0

    #Rebooted with manual intervention, fsck /dev/mapper/pve-root
    #Rebooted with manual intervention, fsck /dev/mapper/pve-data

    echo „GRUB_DISABLE_LINUX_UUID=true“ >> /etc/default/grub
    echo „GRUB_PRELOAD_MODULES=”“raid dmraid” >> /etc/default/grub
    echo raid1 >> /etc/modules
    echo raid1 >> /etc/initramfs-tools/modules
    grub-install /dev/sda
    grub-install /dev/sdb
    # grub-install /dev/md0
    update-grub
    update-initramfs -u

    root@proxmox2:~# sgdisk -t 2:fd00 /dev/sda
    Warning: The kernel is still using the old partition table.
    The new table will be used at the next reboot.
    The operation has completed successfully.

    root@proxmox2:~# mdadm –add /dev/md0 /dev/sda2
    mdadm: added /dev/sda2
    root@proxmox2:~# cat /proc/mdstat
    Personalities : [raid1]
    md0 : active raid1 sda2[2] sdb2[1]
    521920 blocks super 1.2 [2/1] [_U]
    [=============>…….] recovery = 66.8% (349376/521920) finish=0.0min speed=58229K/sec

    md1 : active (auto-read-only) raid1 sdb3[1]
    976106304 blocks super 1.2 [2/1] [_U]

    unused devices:
    root@proxmox2:~# cat /proc/mdstat
    Personalities : [raid1]
    md0 : active raid1 sda2[2] sdb2[1]
    521920 blocks super 1.2 [2/2] [UU]

    md1 : active (auto-read-only) raid1 sdb3[1]
    976106304 blocks super 1.2 [2/1] [_U]

    unused devices:

    root@proxmox2:~# apt-get install screen
    Reading package lists… Done
    Building dependency tree
    Reading state information… Done
    Suggested packages:
    iselect screenie byobu
    The following NEW packages will be installed:
    screen
    0 upgraded, 1 newly installed, 0 to remove and 0 not upgraded.
    Need to get 670 kB of archives.
    After this operation, 975 kB of additional disk space will be used.
    Get:1 http://ftp.nl.debian.org/debian/ wheezy/main screen amd64 4.1.0~20120320gitdb59704-7 [670 kB]
    Fetched 670 kB in 1s (613 kB/s)
    Selecting previously unselected package screen.
    (Reading database … 42449 files and directories currently installed.)
    Unpacking screen (from …/screen_4.1.0~20120320gitdb59704-7_amd64.deb) …
    Processing triggers for install-info …
    Processing triggers for man-db …
    Setting up screen (4.1.0~20120320gitdb59704-7) …

    pvcreate /dev/md1
    vgextend pve /dev/md1
    pvmove /dev/sda3 /dev/md1

    > /dev/sda3: Moved: 29.3%
    > /dev/sda3: Moved: 29.5%
    > /dev/sda3: Moved: 29.6%
    > /dev/sda3: Moved: 29.8%

    > /dev/sda3: Moved: 99.5%
    > /dev/sda3: Moved: 99.6%
    > /dev/sda3: Moved: 99.7%
    > /dev/sda3: Moved: 99.8%
    > /dev/sda3: Moved: 99.9%
    > /dev/sda3: Moved: 100.0%
    > /dev/sda3: Moved: 100.0%

    root@proxmox2:~# vgreduce pve /dev/sda3
    Removed „/dev/sda3“ from volume group „pve“
    root@proxmox2:~# pvremove /dev/sda3
    Labels on physical volume „/dev/sda3“ successfully wiped
    root@proxmox2:~# sgdisk -t 3:fd00 /dev/sda
    Warning: The kernel is still using the old partition table.
    The new table will be used at the next reboot.
    The operation has completed successfully.
    root@proxmox2:~# mdadm –add /dev/md1 /dev/sda3
    mdadm: added /dev/sda3

    echo 80000 >/proc/sys/dev/raid/speed_limit_max

    root@proxmox2:~# cat /proc/mdstat
    Personalities : [raid1]
    md0 : active raid1 sda2[2] sdb2[1]
    521920 blocks super 1.2 [2/2] [UU]

    md1 : active raid1 sda3[2] sdb3[1]
    976106304 blocks super 1.2 [2/1] [_U]
    [>………………..] recovery = 0.0% (417408/976106304) finish=233.7min speed=69568K/sec

    unused devices:

    Personalities : [raid1]
    md0 : active raid1 sda2[2] sdb2[1]
    521920 blocks super 1.2 [2/2] [UU]

    md1 : active raid1 sda3[2] sdb3[1]
    976106304 blocks super 1.2 [2/1] [_U]
    [===============>…..] recovery = 79.2% (773717568/976106304) finish=66.0min speed=51049K/sec

    unused devices:

    root@proxmox2:~# cat /proc/mdstat
    Personalities : [raid1]
    md1 : active raid1 sda3[2] sdb3[1]
    976106304 blocks super 1.2 [2/2] [UU]

    md0 : active raid1 sda2[2] sdb2[1]
    521920 blocks super 1.2 [2/2] [UU]

    unused devices:

    Antworten

  16. Hallo Dominic,

    ich weiß zwar nicht ob dieses Setup noch so besteht aber vielleicht kannst du mir auch so eine Frage beantworten. Ich habe zwar nicht das Tutorial befolgt habe ausm Bauch raus genau das gleiche Setup so hingebaut.

    Läuft auch alles. Aber ich habe andauernd IO wait auf der CPU. Auf dem Host nur wenig (hat 12 Kerne) aber dafür auf eine VM mit nur 2 Kernen deutlich mehr. Teilweise steht die VM ohne großartig was zu tun still.

    Kann das am md liegen? Hattest du evtl. auch Probleme damit?

    Würde es evtl. helfen, wenn ich das Nicht-boot md als raid10 mit layout far einrichte? Sollte ja in der Theorie auch mit nur 2 Platten gehen… (das far-layout für /boot nicht geht ist klar, aber das braucht im Betrieb ja auch niemand).

    Danke schonmal!

    Antworten

    • Hi Daniel,

      das Setup läuft so noch bei mir und einigen Kunden – natürlich mit Updates. ;)

      Mit einer IOwait auf der CPU hatte ich keinerlei Probleme, da kann ich dir leider so nicht weiterhelfen, da müsste ich drauf schauen, wieso das so ist. Welcher Prozess wartet denn?

      Grüße,
      Dominic

      Antworten

      • Hi Dominic,

        ich habe bei iotop oben auf der Warteliste, primär die KVM Prozesse (insg. 4 Stck.) und ab und an das Journal vom Ext4 (jbd2) vom /var (eigenes dm-device). Es ist jetzt nicht so, dass die Maschine dauernd wartet. Aber immer so um 2-5% (manchmal geht WAIT IO aber auch bis 50%) und das obwohl laut iotop immer nur ein paar Kb auf die Platte geschrieben und noch weniger gelesen werden. Cache Optionen für die virtuellen Platten habe ich alle auf Standard (No Cache).

        Kannst du bei dir vllt. mal ein pveperf abfackeln? Meins zum Vergleich (beachte mikrige FSync):

        CPU BOGOMIPS: 54584.72
        REGEX/SECOND: 1682537
        HD SIZE: 0.98 GB (/dev/mapper/VG00-LVsysroot)
        BUFFERED READS: 151.14 MB/sec
        AVERAGE SEEK TIME: 6.53 ms
        FSYNCS/SECOND: 49.42
        DNS EXT: 75.03 ms

        root@pve1:~/smart# pveversion
        pve-manager/3.3-1/a06c9f73 (running kernel: 2.6.32-32-pve)

        Antworten

  17. Hi,

    vorgestern ist Proxmox 4 final geworden.

    Wäre toll all dies hier mal funbktionierend auf die 4`er Version (mit GPT) upzudaten.

    Danke für die Mühe!!!

    Antworten

    • Leider nutze ich aktuell Proxmox nicht mehr. Eventuell spiele ich das mal in einer VZ durch, kann aber für nicht’s garantieren…

      Antworten

  18. Danke für die tolle Anleitung, hab mich durch das Tutorial durchgelesen und ein paar schöne Sachen herausgepickt.

    Ich verwende zwar kein Proxmox, zuvor OMV und nun ein Eigenbau NAS. Die Aufgabenstellung hat was mit diesem Tutorial eine Gemeinsamkeit, es zu raid1 konvertieren.

    Meine Disk-Konfiguration kurz geschildert:
    sda1 boot; sda2 recoverysystem; sda5 luks | darin ein lvm2 [2 PV, 3 VG, mehrere LV]
    Bin gerade nur etwas am grübeln, wie ich das crypto luks dazwischenschieben soll.
    Da die sda ins Alter gekommen ist, soll eine neue zusätzliche sdb das ganze als raid1 absichern. Schön wäre es wenn der zus. free space auf sdb6 unabhängig standalone nutzbar wäre.

    Vielleicht hat hier jemand die eine oder andere Idee zur Umsetzung und kann mich etwas unterstützen. Danke schon mal.

    Antworten

Schreibe einen Kommentar

Pflichtfelder sind mit * markiert.