Contenu | Rechercher | Menus

Annonce

Si vous avez des soucis pour rester connecté, déconnectez-vous puis reconnectez-vous depuis ce lien en cochant la case
Me connecter automatiquement lors de mes prochaines visites.

À propos de l'équipe du forum.

#101 Le 07/10/2010, à 19:57

rmy

Re : [reRESOLU] migration lvm chiffré -> raid5+lvm chiffré -> grow disks

côté uuid ça a l'air OK. Je n'ai rien tenté pour le moment, parce qu'il y a des détails qui m'échappent, et j'aimer comprendre ce que je fais. Surtout quand ça concerne la récup de données, tu t'en doute tongue

Par ailleurs je vois dans ce backup (enfin je suppose, je lis assez mal le backup ancien dans le texte) que les lv étaient sur pv1, et moi c'est ceux qui sont (seraient) sur pv0 qui m'intéressent… et-ce donc utile de restaurer ce backup…?

Hors ligne

#102 Le 07/10/2010, à 20:11

chopinhauer

Re : [reRESOLU] migration lvm chiffré -> raid5+lvm chiffré -> grow disks

Bah, c'est un backup assez récent et, comme tu vois, toutes les LV sont sur le PV 'pv1' (/dev/mapper/cryptroot). Peut-être t'as plus de chance dans /etc/lvm/archive.

Sinon tu peux sortir le RAID du VG debian, puis copier ce fichier et le modifier pour ce qu'on pense était l'allocation de volumes sur le RAID. C'est à dire:

* Surement modifier le nom et le UUID du VG (inverser deux lettres suffit :-) ).
* Enlever l'entrée du 'pv1' (cryptroot)
* Modifier les entrées des LV pour dire que c'est 'pv0', pas 'pv1' leur périphérique.

Après un:

vgcfgrestore -f <le_fichier_modifié>

devrait faire apparaître un nouveau VG, avec les bons LV.

Dernière modification par chopinhauer (Le 07/10/2010, à 20:12)


Pensez à donner un bon titre à vos sujets : cela permettra d'aider d'autres utilisateurs dans votre même situation. Ce n'est pas qu'en donnant des solutions qu'on aide, mais aussi en posant des bonnes questions et… facilement trouvables.

Hors ligne

#103 Le 07/10/2010, à 20:14

rmy

Re : [reRESOLU] migration lvm chiffré -> raid5+lvm chiffré -> grow disks

yikes Je savais pas qu'on pouvait faire de la cuisine comme ça avec les lvm !!
Bon, je regarde dans archive et je repasse.

Edit : celui-ci me paraît être le plus intéressant, c'est celui jsute avant le pvmove vers le raid lors du premier pvmove de ma tentative de migration.

sudo cat /etc/lvm/archive/debian_00007.vg
# Generated by LVM2 version 2.02.54(1) (2009-10-26): Tue Sep 21 10:49:13 2010

contents = "Text Format Volume Group"
version = 1

description = "Created *before* executing 'pvmove /dev/mapper/cryptroot -i 5'"

creation_host = "rmyprod"    # Linux rmyprod 2.6.32-25-generic #44-Ubuntu SMP Fri Sep 17 20:26:08 UTC 2010 i686
creation_time = 1285058953    # Tue Sep 21 10:49:13 2010

debian {
    id = "CryiJf-tvAL-2yZK-rj1I-R5Im-HrTM-OwCgUe"
    seqno = 12
    status = ["RESIZEABLE", "READ", "WRITE"]
    flags = []
    extent_size = 8192        # 4 Megabytes
    max_lv = 0
    max_pv = 0

    physical_volumes {

        pv0 {
            id = "TJdpFD-iTRr-jQxg-jqqk-5gPU-tHwL-T28IUV"
            device = "/dev/mapper/cryptroot"    # Hint only

            status = ["ALLOCATABLE"]
            flags = []
            dev_size = 1249758554    # 595,931 Gigabytes
            pe_start = 384
            pe_count = 152558    # 595,93 Gigabytes
        }

        pv1 {
            id = "NT2mUJ-71Zq-iH2V-wX21-3CkG-lvLN-6gvmQg"
            device = "/dev/md0p1"    # Hint only

            status = ["ALLOCATABLE"]
            flags = []
            dev_size = 3907024002    # 1,81935 Terabytes
            pe_start = 577
            pe_count = 476931    # 1,81935 Terabytes
        }
    }

    logical_volumes {

        swap_1 {
            id = "LxEGT1-fmgR-XGGX-byOt-j2p6-bXrs-SasLSs"
            status = ["READ", "WRITE", "VISIBLE"]
            flags = []
            segment_count = 1

            segment1 {
                start_extent = 0
                extent_count = 648    # 2,53125 Gigabytes

                type = "striped"
                stripe_count = 1    # linear

                stripes = [
                    "pv0", 1668
                ]
            }
        }

        rootbuntu {
            id = "qjJsVW-8iWp-CT0H-YqoS-hsl1-yFTL-MlzMub"
            status = ["READ", "WRITE", "VISIBLE"]
            flags = []
            segment_count = 1

            segment1 {
                start_extent = 0
                extent_count = 3840    # 15 Gigabytes

                type = "striped"
                stripe_count = 1    # linear

                stripes = [
                    "pv0", 53772
                ]
            }
        }

        homebuntu {
            id = "fo3HBW-BL0n-ctuO-Rgg7-U03h-Vorb-bjq8cP"
            status = ["READ", "WRITE", "VISIBLE"]
            flags = []
            segment_count = 3

            segment1 {
                start_extent = 0
                extent_count = 94946    # 370,883 Gigabytes

                type = "striped"
                stripe_count = 1    # linear

                stripes = [
                    "pv0", 57612
                ]
            }
            segment2 {
                start_extent = 94946
                extent_count = 51456    # 201 Gigabytes

                type = "striped"
                stripe_count = 1    # linear

                stripes = [
                    "pv0", 2316
                ]
            }
            segment3 {
                start_extent = 146402
                extent_count = 1668    # 6,51562 Gigabytes

                type = "striped"
                stripe_count = 1    # linear

                stripes = [
                    "pv0", 0
                ]
            }
        }
    }
}

Là, les LV sont sur pv0, mais pv0 c'est cryptroot. L'idée de restaurer tel quel en modifiant pv0/pv1 uniquement ne me plait guère, parce que du coup si ça foire, je remets probablement mon lvm cryptroot dans le sac. Je serai plus tenté effectivement d'essayer de modif les ID et de sortir le raid du VG. Je vais essayer de le faire, mais pour chaque étape, j'attendrai ta confirmation, si tu veux bien. Comme ça, je comprendrai mieux comment ça marche.

Dernière modification par rmy (Le 07/10/2010, à 20:26)

Hors ligne

#104 Le 07/10/2010, à 20:28

rmy

Re : [reRESOLU] migration lvm chiffré -> raid5+lvm chiffré -> grow disks

Donc là, je commence par un

sudo vgreduce debian /dev/md0p1

exact ?

Hors ligne

#105 Le 07/10/2010, à 20:36

chopinhauer

Re : [reRESOLU] migration lvm chiffré -> raid5+lvm chiffré -> grow disks

Oui, commence par un vgreduce. Par contre tu n'as pas de configuration après la migration? Car par exemple là homebuntu est en trois morceaux. Je suis quasiment certains que pvmove l'a remis dans un seul morceau lors de la migration.

Je dirais de modifier quand même le premier fichier que t'as posté. Au pire tu peux réessayer avec celui-ci après.


Pensez à donner un bon titre à vos sujets : cela permettra d'aider d'autres utilisateurs dans votre même situation. Ce n'est pas qu'en donnant des solutions qu'on aide, mais aussi en posant des bonnes questions et… facilement trouvables.

Hors ligne

#106 Le 07/10/2010, à 20:46

rmy

Re : [reRESOLU] migration lvm chiffré -> raid5+lvm chiffré -> grow disks

Oui je viens de voir ça… j'étais déjà en train de modifier le fichier en question. Pendant que je reprends l'autre, saurais tu m'expliquer ce que c'est que

seqno = 12

dans la déclaration du vg, pour savoir si je dois le modifier…

Hors ligne

#107 Le 07/10/2010, à 20:52

rmy

Re : [reRESOLU] migration lvm chiffré -> raid5+lvm chiffré -> grow disks

donc la suite serait :
je me crée un faux_backup.vg :

# Generated by rmy : Oct 07 20:33:30 2010 cuisine de backup sur md0p1

contents = "Text Format Volume Group"
version = 1

description = "Created before data recovery on /dev/md0p1"

creation_host = "rmyprod"    # Linux rmyprod 2.6.32-25-generic #44-Ubuntu SMP Fri Sep 17 20:26:08 UTC 2010 i686
creation_time = 1286476754    # jeudi 7 octobre 2010, 20:39:14 (UTC+0200)

devian {
    id = "CryiJf-tvAL-2yZK-rj1I-R5Im-HrTM-OwCgeU"
    seqno = 12
    status = ["RESIZEABLE", "READ", "WRITE"]
    flags = []
    extent_size = 8192        # 4 Megabytes
    max_lv = 0
    max_pv = 0

    physical_volumes {
      
        pv0 {
            id = "NT2mUJ-71Zq-iH2V-wX21-3CkG-lvLN-6gvmQg"
            device = "/dev/md0p1"    # Hint only

            status = ["ALLOCATABLE"]
            flags = []
            dev_size = 3907024002    # 1,81935 Terabytes
            pe_start = 577
            pe_count = 476931    # 1,81935 Terabytes
        }
    }

    logical_volumes {

        swap_2 {
            id = "LxEGT1-fmgR-XGGX-byOt-j2p6-bXrs-SasLsS"
             status = ["READ", "WRITE", "VISIBLE"]
            flags = []
            segment_count = 1

            segment1 {
                start_extent = 0
                extent_count = 648    # 2.53125 Gigabytes

                type = "striped"
                stripe_count = 1    # linear

                stripes = [
                    "pv0", 0
                ]
            }
        }

        bisrootbuntu {
            id = "qjJsVW-8iWp-CT0H-YqoS-hsl1-yFTL-MlzMbu"
            status = ["READ", "WRITE", "VISIBLE"]
            flags = []
            segment_count = 1

            segment1 {
                start_extent = 0
                extent_count = 3840    # 15 Gigabytes

                type = "striped"
                stripe_count = 1    # linear

                stripes = [
                    "pv0", 648
                ]
            }
        }

        bishomebuntu {
            id = "fo3HBW-BL0n-ctuO-Rgg7-U03h-Vorb-bjq8Pc"
             status = ["READ", "WRITE", "VISIBLE"]
            flags = []
            segment_count = 1

            segment1 {
                start_extent = 0
                extent_count = 148070    # 578.398 Gigabytes

                type = "striped"
                stripe_count = 1    # linear

                stripes = [
                    "pv0", 4488
                ]
            }
        }
    }
}

où j'ai modifié le nom du VG, l'ID du vg, les noms des LV, et leurs IDs.

Dernière modification par rmy (Le 07/10/2010, à 20:56)

Hors ligne

#108 Le 07/10/2010, à 21:05

chopinhauer

Re : [reRESOLU] migration lvm chiffré -> raid5+lvm chiffré -> grow disks

seqno ça doit être le numéro de version des métadonnées de ce VG en particulier, donc sans importance.

T'es sur d'avoir modifié le ID du VG? Il me semble le même.

Sauf ça à mon avis tu peux le charger avec 'vgcfgrestore -f <fichier>' et voire si c'était le bonne données.


Pensez à donner un bon titre à vos sujets : cela permettra d'aider d'autres utilisateurs dans votre même situation. Ce n'est pas qu'en donnant des solutions qu'on aide, mais aussi en posant des bonnes questions et… facilement trouvables.

Hors ligne

#109 Le 07/10/2010, à 21:30

rmy

Re : [reRESOLU] migration lvm chiffré -> raid5+lvm chiffré -> grow disks

Ouaip j'ai inversé les deux dernières lettres

Hors ligne

#110 Le 07/10/2010, à 21:33

rmy

Re : [reRESOLU] migration lvm chiffré -> raid5+lvm chiffré -> grow disks

sudo vgcfgrestore devian -f faux_backup.vg 
  Restored volume group devian

Hors ligne

#111 Le 07/10/2010, à 21:40

rmy

Re : [reRESOLU] migration lvm chiffré -> raid5+lvm chiffré -> grow disks

Montage fonctionnel. Merci pour toutes ces infos précieuses. Je ne sais pas où j'ai merdé dans l'analyse, mais les données de la frangine n'y sont pas hmm

Bon, vu que ça, c'est fait, on va pouvoir passer à autre chose…

Par contre, vu l'état de mon cerveau, je vais reprendre ça tranquillement demain…

Dernière modification par rmy (Le 07/10/2010, à 21:57)

Hors ligne

#112 Le 09/10/2010, à 10:42

rmy

Re : [reRESOLU] migration lvm chiffré -> raid5+lvm chiffré -> grow disks

Hop, je me remets à l'ouvrage:
1ère étape, tester la solution initialement prévue avant de tout (encore) re-casser pour remettre les choses à plat.

Donc cette nuit, pendant la migration du forum, j'ai fait:

sudo lvremove /dev/mapper/devian-* -v
sudo vgremove devian
   sudo pvremove /dev/md0p1 -v

puis

sudo mdadm --manage /dev/md0 --fail /dev/sd[b|c|d]1

(un par un)
et

sudo mdadm --manage --stop /dev/md0

ensuite j'ai repartitionné mes disques (j'ai oublié au passage de laisser plus de place pour grub, mais vu que ce n'est qu'une situation provisoire pour tests, je ne vais pas recommencer le sync complet ^^)
>> Question au passage: pour réduire un volume raid (ici, /dev/md1, en laissant plus de place "devant", il aurait vraiment fallu démonter le raid, réduire chaque partition, et le reconstruire ou bien il y a plus court comme manip?

Puis je me suis refait deux volumes raid: md1 en raid1 sur sdb1,sdc1 (avec prévision d'extension pour le test à raid 1+0 après) et md0 en raid5 sur sdb2,sdc2,sdd2…

sudo mdadm --create /dev/md0 --level=5 --raid-devices=3 /dev/sd[bcd]2
mdadm: array /dev/md0 started.

 sudo mdadm --create /dev/md1 --level=1 --raid-devices=2 /dev/sd[bc]1
mdadm: array /dev/md1 started.

sudo mdadm --daemonise /dev/md0
sudo mdadm --daemonise /dev/md1

sudo mdadm --detail /dev/md0
/dev/md0:
        Version : 00.90
  Creation Time : Sat Oct  9 03:58:19 2010
     Raid Level : raid5
     Array Size : 1952989696 (1862.52 GiB 1999.86 GB)
  Used Dev Size : 976494848 (931.26 GiB 999.93 GB)
   Raid Devices : 3
  Total Devices : 3
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Sat Oct  9 07:00:57 2010
          State : clean
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           UUID : 6ac8eba5:c657b0f7:38068b2c:eb3ab5c6 (local to host rmyprod)
         Events : 0.42

    Number   Major   Minor   RaidDevice State
       0       8       18        0      active sync   /dev/sdb2
       1       8       34        1      active sync   /dev/sdc2
       2       8       50        2      active sync   /dev/sdd2

sudo mdadm --detail /dev/md1
/dev/md1:
        Version : 00.90
  Creation Time : Sat Oct  9 03:58:56 2010
     Raid Level : raid1
     Array Size : 264960 (258.79 MiB 271.32 MB)
  Used Dev Size : 264960 (258.79 MiB 271.32 MB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 1
    Persistence : Superblock is persistent

    Update Time : Sat Oct  9 07:01:02 2010
          State : active
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           UUID : ce2da1a5:85ce2b96:38068b2c:eb3ab5c6 (local to host rmyprod)
         Events : 0.37

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       33        1      active sync   /dev/sdc1

Voilà. À suivre ci-dessous.

Hors ligne

#113 Le 09/10/2010, à 10:57

rmy

Re : [reRESOLU] migration lvm chiffré -> raid5+lvm chiffré -> grow disks

Donc ensuite je crée mon conteneur luks:

sudo cryptsetup luksFormat -c aes -h sha256 /dev/md0
sudo cryptsetup luksOpen /dev/md0 cryptraid

Puis voici la check-list de ce qui va venir après: Arrêtez-moi si il y a galère à prévoir…

ma note de cette nuit a écrit :

vgcfgbackup
puis lvm à migrer
/boot à créer sur md1 + rsync
crypttab à changer
fstab à modifier
grub à réinstaller
rebooter

sudo vgcfgbackup debian -f backup_lvm_debian_avant_migration_20101008.vg
  Volume group "debian" successfully backed up.

copie du fichier sur support externe…

Et c'est parti pour le nouveau lvm:

sudo pvcreate /dev/mapper/cryptraid 
  Physical volume "/dev/mapper/cryptraid" successfully created

sudo vgextend debian /dev/mapper/cryptraid
  Volume group "debian" successfully extended

Puis enfin

sudo pvmove /dev/mapper/cryptroot /dev/mapper/cryptraid -i 5

À suivre… prochain épisode après la fin de la migration

Bon, en attendant, comme ça prend du temps, j'ai finalement déconstruit mon md1, pour faire de la place avant les partitions sd[bcd]1 et remonter plutôt le raid1 sur sd[cd]1 pour pas m'y perdre après…

Et je continue ma checklist:

sudo mount /dev/md1 /mnt
sudo rsync /boot/ /mnt/ -a --stats --progress --filter "- lost+found"

en passant ( /dev/mapper/cryptroot: Moved: 33,4%)

Je modifie donc crypttab
ancien:

cat /etc/crypttab
# <target name>    <source device>        <key file>    <options>
cryptroot        /dev/sda2    none    luks,retry=1,lvm=debian

nouveau:

cat /etc/crypttab
# <target name>    <source device>        <key file>    <options>
cryptraid        /dev/md0    none    luks,retry=1,lvm=debian

Dernière modification par rmy (Le 09/10/2010, à 13:52)

Hors ligne

#114 Le 09/10/2010, à 14:01

rmy

Re : [reRESOLU] migration lvm chiffré -> raid5+lvm chiffré -> grow disks

pour le fstab, pour l'instant je n'ai modifié que la ligne du /boot, je ne sais pas si les lv changent d'uuid lors du pvmove. Je ne pense pas, mais je vérifierai quand même avant le reboot.

cat /etc/fstab
# /etc/fstab: static file system information.
#
# <file system> <mount point>   <type>  <options>       <dump>  <pass>
proc            /proc           proc    defaults        0       0
#/dev/mapper/debian-rootbuntu
UUID=4682429c-6781-4ed4-8a3d-44682d0144c9 /               ext3    relatime,errors=remount-ro 0       1
# /dev/md1
UUID=542382d5-d743-4b1c-a09f-bc5130fb9495 /boot           ext4    relatime        0       2
# /dev/mapper/debian-homebuntu
UUID=790c47bd-0706-425a-b42d-e3cef41cfd72 /home           ext3    relatime        0       2
# /dev/mapper/debian-swap_1
UUID=10424d7d-071f-4d72-8fd5-3425c17615f5 none            swap    sw              0       0
/dev/scd0       /media/cdrom0   udf,iso9660 user,noauto,exec,utf8 0       0

Hors ligne

#115 Le 09/10/2010, à 14:06

rmy

Re : [reRESOLU] migration lvm chiffré -> raid5+lvm chiffré -> grow disks

Voilà, j'ai plus qu'à attendre.

Il me reste à:
sortir cryptroot du vg,
réinstaler grub correctement
vérifier si il ne faut rien de plus (faut pas rajouter qq chose à initramfs?)
edit: modifier mdadm.conf, il n'y a pas de trace de /dev/md1 actuellement
éteindre,
enlever sda
rebooter.

Le pvmove va durer un moment encore… chopinauer, Hoper, si vous passez par là et que le blanc ne vous brûle pas trop les yeux, n'hésitez pas à donner votre avis sur les manips…

Dernière modification par rmy (Le 09/10/2010, à 14:56)

Hors ligne

#116 Le 09/10/2010, à 15:39

chopinhauer

Re : [reRESOLU] migration lvm chiffré -> raid5+lvm chiffré -> grow disks

À ajouter à la checklist:
* Donner le paramètre '--modules' à grub-install, la liste devrait contenir 'mdraid' et 'ext2' (même si grub-install va probablement se charger de ce dernier). La liste des modules disponibles est dans /usr/lib/grub. T'as aussi un module 'crypto' si tu veux t'amuser.
* update-initramfs pour copier le mdadm.conf dans le initrd.

Dernière modification par chopinhauer (Le 09/10/2010, à 15:40)


Pensez à donner un bon titre à vos sujets : cela permettra d'aider d'autres utilisateurs dans votre même situation. Ce n'est pas qu'en donnant des solutions qu'on aide, mais aussi en posant des bonnes questions et… facilement trouvables.

Hors ligne

#117 Le 09/10/2010, à 17:09

rmy

Re : [reRESOLU] migration lvm chiffré -> raid5+lvm chiffré -> grow disks

merci smile

Mais, ce module crypto, ça veut dire qu'il est bel est bien possible de mettre tout (j'ai compris, hein, je ne le ferai pas), même /boot, dans un lvm chiffré, non?

(/dev/mapper/cryptroot: Moved: 79,7%)

Hors ligne

#118 Le 09/10/2010, à 17:22

chopinhauer

Re : [reRESOLU] migration lvm chiffré -> raid5+lvm chiffré -> grow disks

Je pense que oui. Si tu regardes Grub a plein de modules cryptographiques pour n'importe quel algorithme. Ce n'est pas documenté par contre, donc il faudrait regarder dans les sources comme s'en servir.


Pensez à donner un bon titre à vos sujets : cela permettra d'aider d'autres utilisateurs dans votre même situation. Ce n'est pas qu'en donnant des solutions qu'on aide, mais aussi en posant des bonnes questions et… facilement trouvables.

Hors ligne

#119 Le 09/10/2010, à 19:13

rmy

Re : [reRESOLU] migration lvm chiffré -> raid5+lvm chiffré -> grow disks

smile une autre fois… mais le sujet m'intéresse…

Hors ligne

#120 Le 10/10/2010, à 09:15

rmy

Re : [reRESOLU] migration lvm chiffré -> raid5+lvm chiffré -> grow disks

  /dev/mapper/cryptroot: Moved: 100,0%

cool

Vais-je réussir à rebooter le 10.10.10 ? Plus tard, peut-être…

Hors ligne

#121 Le 10/10/2010, à 18:49

rmy

Re : [reRESOLU] migration lvm chiffré -> raid5+lvm chiffré -> grow disks

Bon, me revlà.

Alors déjà, un doute m'assaille: j'ai du merdouiller lorsque j'ai reconstruit mon raid1, parce que là en voulaut mettre à jour mon mdadm.conf, j'ai ça:

sudo mdadm --examine --scan 
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=ce2da1a5:85ce2b96:38068b2c:eb3ab5c6
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=a8faec27:afb2d420:38068b2c:eb3ab5c6
ARRAY /dev/md0 level=raid5 num-devices=3 UUID=6ac8eba5:c657b0f7:38068b2c:eb3ab5c6

Bon, comme

ls -l /dev/disk/by-uuid

me donne:

uuid md1 a écrit :

542382d5-d743-4b1c-a09f-bc5130fb9495 -> ../../md1

Je me dit qu'il y a vraiment un cafard dans le potage…

En plus gparted me marque un /dev/md1p1 alors qu'il n'y en a pas, mais la repère en ext4 quand même… oO

Ça me semble pas net cette histoire…

sudo blkid
/dev/md1: UUID="542382d5-d743-4b1c-a09f-bc5130fb9495" TYPE="ext4" 

hmm Que faire…

Hors ligne

#122 Le 10/10/2010, à 19:38

chopinhauer

Re : [reRESOLU] migration lvm chiffré -> raid5+lvm chiffré -> grow disks

Les UUID du RAID ne sont pas les même que ceux de blkid. Ce dernier donne le UUID des systèmes de fichiers, qui sont sur le RAID.

Effectivement t'as deux RAID 1, chacun avec deux disques et un total de 3 disques. :-)

Dans le message #112 t'as ajouté uniquement sdb1 et sdc1 au RAID 1: c'est 'ce2da1a5:85ce2b96:38068b2c:eb3ab5c6'. La partition sda1 a encore le super-bloc d'un des RAID passées. Donne lui un coup de 'mdadm --zero-superblock' et refait le 'mdadm --examine --scan'.

Dernière modification par chopinhauer (Le 10/10/2010, à 19:38)


Pensez à donner un bon titre à vos sujets : cela permettra d'aider d'autres utilisateurs dans votre même situation. Ce n'est pas qu'en donnant des solutions qu'on aide, mais aussi en posant des bonnes questions et… facilement trouvables.

Hors ligne

#123 Le 10/10/2010, à 21:01

rmy

Re : [reRESOLU] migration lvm chiffré -> raid5+lvm chiffré -> grow disks

Ok, merci. En fait, c'est pas /dev/sda1, c'est /dev/sdb1 que j'avais oublié. Mais du coup j'ai compris mon erreur.

sudo mdadm --examine --scan
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=a8faec27:afb2d420:38068b2c:eb3ab5c6
ARRAY /dev/md0 level=raid5 num-devices=3 UUID=6ac8eba5:c657b0f7:38068b2c:eb3ab5c6

c'est plus clair.

et merci aussi pour la précision concernant blkid…

Hors ligne

#124 Le 10/10/2010, à 21:36

rmy

Re : [reRESOLU] migration lvm chiffré -> raid5+lvm chiffré -> grow disks

Les paramètres pour grub install, c'est pas  dans /usr/lib/grub/i386 plutôt?

spontanément, j'aurais fait ça:
sudo grub-install /dev/md1 --modules=raid,ext2 et si un jour je rajoute mon /boot à mon lvm chiffré, je lui ajouterai lvm, crypto… that's it?
update-initramfs
vgreduce
éteindre,
enlever sda
rebooter.

Par contre, je n'ai pas de grub sur les disques eux-mêmes… et il n'y a rien pour l'instant sur /dev/sdb1 puisque je compte faire un grow en remplaçant mon sda et me retrouver à terme de cette expérimentation avec:
raid 1+0 ((sda1-sdb1)(sdc1-sdd1) pour /boot
raid 5 de 3To sur 4 disques 1To avec Luks+LVM…

Ça va pas coincer? Ça serait pas malin que j'installe grub plutôt sur /dev/sd[bcd]1?

Dernière modification par rmy (Le 10/10/2010, à 21:37)

Hors ligne

#125 Le 10/10/2010, à 21:57

chopinhauer

Re : [reRESOLU] migration lvm chiffré -> raid5+lvm chiffré -> grow disks

Tu installe Grub sur /dev/sda, /dev/sdb et /dev/sdc, par sur le RAID. Le BIOS ne sait pas lire le RAID, donc Grub doit  d'abord accéder à un disque classique pour lire le module raid.mod et en suite monter le RAID.

La différence entre /dev/sda et /dev/sda1 est que sur le dique entier il y a un trou de 31 kio entre le premier secteur du disque et le premier secteur de la première partition. Sur /dev/sda1 il n'y a que 512 octets au plus et après le système de fichiers commence.

Grub est bien plus confortable dans l'espace inutilisé au début de /dev/sda.


Pensez à donner un bon titre à vos sujets : cela permettra d'aider d'autres utilisateurs dans votre même situation. Ce n'est pas qu'en donnant des solutions qu'on aide, mais aussi en posant des bonnes questions et… facilement trouvables.

Hors ligne