Contenu | Rechercher | Menus

Annonce

Si vous avez des soucis pour rester connecté, déconnectez-vous puis reconnectez-vous depuis ce lien en cochant la case
Me connecter automatiquement lors de mes prochaines visites.

À propos de l'équipe du forum.

#1 Le 27/04/2012, à 16:24

DrSnake

[Résolu] Remontage d'un RAID1 fonctionnel sur nouvelle installation

Bonjour,
comme dit dans le titre, j'ai actuellement un RAID1 sur une vieille distribution desktop plus maj etc ... La nouvelle LTS étant là, je souhaite donc passer sur une la 12.04 serveur. Toutes les données sur le disque système ont été backup (et je n'ai pas grand chose à y récupérer), le problème c'est mon RAID1. Voici le retour de quelques commandes sur ce RAID :

:~# sudo mdadm --detail /dev/md0
/dev/md0:
    Version : 01.02
    Creation Time : Fri Dec  4 07:58:07 2009
    Raid Level : raid1
    Array Size : 976759865 (931.51 GiB 1000.20 GB)
    Used Dev Size : 1953519730 (1863.02 GiB 2000.40 GB)
    Raid Devices : 2
    Total Devices : 2
    Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Fri Apr 27 15:26:08 2012
    State : clean
    Active Devices : 2
    Working Devices : 2
    Failed Devices : 0
    Spare Devices : 0

    UUID : ed684f7c:0756fe74:cd2238a8:62f7ed56
    Events : 526041

    Number   Major   Minor   RaidDevice State
    2       8       33        0      active sync   /dev/sdc1
    1       8       17        1      active sync   /dev/sdb1

:~# sudo mdadm --detail -scan
    ARRAY /dev/md0 level=raid1 num-devices=2 metadata=01.02 UUID=ed684f7c:0756fe74:cd2238a8:62f7ed56

:~# cat /proc/mdstat
    Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
    md0 : active raid1 sdb1[1] sdc1[2]
          976759865 blocks super 1.2 [2/2] [UU]
          
    unused devices: <none>

Et voici les infos de mes disques actuels :

:~# sudo fdisk -l
    Disque /dev/sda: 250.1 Go, 250059350016 octets
    255 têtes, 63 secteurs/piste, 30401 cylindres
    Unités = cylindres de 16065 * 512 = 8225280 octets
    Identifiant de disque : 0x0003dbef

    Périphérique Amorce  Début        Fin      Blocs     Id  Système
    /dev/sda1   *           1       29744   238918648+  83  Linux
    /dev/sda2           29745       30401     5277352+   5  Etendue
    /dev/sda5           29745       30401     5277321   82  Linux swap / Solaris

    Disque /dev/sdb: 1000.2 Go, 1000204886016 octets
    255 têtes, 63 secteurs/piste, 121601 cylindres
    Unités = cylindres de 16065 * 512 = 8225280 octets
    Identifiant de disque : 0x000022f8

    Périphérique Amorce  Début        Fin      Blocs     Id  Système
    /dev/sdb1               1      121601   976760001   fd  Linux raid autodetect

    Disque /dev/sdc: 1000.2 Go, 1000204886016 octets
    255 têtes, 63 secteurs/piste, 121601 cylindres
    Unités = cylindres de 16065 * 512 = 8225280 octets
    Identifiant de disque : 0x4018d1db

    Périphérique Amorce  Début        Fin      Blocs     Id  Système
    /dev/sdc1               1      121601   976760001   fd  Linux raid autodetect

    Disque /dev/md0: 1000.2 Go, 1000202101760 octets
    2 têtes, 4 secteurs/piste, 244189966 cylindres
    Unités = cylindres de 8 * 512 = 4096 octets
    Identifiant de disque : 0x00000000

Donc le disque sda va sauter, se taper une installation toute propre, les sdb et sdc sont les 2 composants de mon RAID.

J'ai ces quelques questions :

  • Dois-je désactiver/déconnecter les disques qui sont en RAID avant d'éteindre ?

  • Dans l'ordre des choses, je vois la création/récupération d'un superbloc et la définition d'un point de montage au démarrage, mais je pense qu'il me manque des étapes xD. Donc quelle est la procédure à suivre ?

  • Le temps de création sera t'il diminué puisque les disques sont déjà synchro ? Je suppose qu'il va "seulement" vérifer la synchro et pas copier les données.

J'ai trouvé ce topic qui à l'air de faire référence, mais je n'arrive pas à faire le lien avec ma situation.

Dernière modification par DrSnake (Le 12/05/2012, à 12:13)

Hors ligne

#2 Le 12/05/2012, à 12:16

DrSnake

Re : [Résolu] Remontage d'un RAID1 fonctionnel sur nouvelle installation

Bon en fait, je n'ai rien eu à faire.

Après la nouvelle installation, j'ajoute mdadm depuis les packets et il m'a automatiquement détecté le raid et le sync marchait directement.
La seule modification était le "point de détection" (?) md0 est passé à md127 et que j'ai du mettre le point de montage à cette nouvelle valeur.
Voilou.

Hors ligne

#3 Le 01/08/2012, à 14:37

OdEa

Re : [Résolu] Remontage d'un RAID1 fonctionnel sur nouvelle installation

ca m'interesse j'ai la même manip à faire...je n'ai pas envie de faire un upgrade de 10.04 vers 12.04, trop de mauvais souvenirs avec les upgrade hmm
du coup je vais faire une fresh install, mais je n'ai pas envie de perdre mon RAID...
Comment ca fonctionne du coup ?
je fais ma fresh install, puis apt-get install mdadm et hop comme par magie mon raid est là ?
est-ce que ca fonctionne via gnome-disk-utility ?
Est-ce que quelqu'un a déjà essayé de reinstaller ubuntu tout en gardant un RAID (qui est sur un disque à part que /) ?

Hors ligne

#4 Le 01/08/2012, à 14:46

DrSnake

Re : [Résolu] Remontage d'un RAID1 fonctionnel sur nouvelle installation

OdEa a écrit :

ca m'interesse j'ai la même manip à faire...je n'ai pas envie de faire un upgrade de 10.04 vers 12.04, trop de mauvais souvenirs avec les upgrade hmm
du coup je vais faire une fresh install, mais je n'ai pas envie de perdre mon RAID...
Comment ca fonctionne du coup ?
je fais ma fresh install, puis apt-get install mdadm et hop comme par magie mon raid est là ?
est-ce que ca fonctionne via gnome-disk-utility ?
Est-ce que quelqu'un a déjà essayé de reinstaller ubuntu tout en gardant un RAID (qui est sur un disque à part que /) ?


C'était bien mon cas. Je ne voulais pas faire une upgrade de dist. De plus, l'installation précédente de mon NAS était ma première expérience de " machine server " (en desktop ...) que je gérais, donc une fresh installation était potentiellement nécessaire pour retrouver quelque chose de propre. L'arrivée de la LTS m'a motivé donc j'ai reset le système. Personnellement, c'était un RAID miroir de 1To, j'ai save les trucs importants (~500Go), au cas où, sur mon 3ème disk identique (mon disk de secours en cas de fail de l'un des deux composants du RAID). Et puis je me suis lancé.

Comme tu l'as résumé, après l'installation de mdadm, mon RAID était là et fonctionnel, seul le point de montage avait changé (normal en même temps ...). Donc au final, j'ai format le disk système, je n'ai pas touché au RAID. Et tout s'est bien passé.

Dernière modification par DrSnake (Le 01/08/2012, à 14:47)

Hors ligne

#5 Le 01/08/2012, à 15:27

OdEa

Re : [Résolu] Remontage d'un RAID1 fonctionnel sur nouvelle installation

parfait ! oui moi c'est exactement pareil : RAID 1 1To
J'ai utilisé l'interface graphique gnome-disk-utility pour créer mon RAID, j'imagine que c'est une couche visuelle qui utilise mdadm.
Mais je ne sais pas si en installant mdadm ca va capter le fait que j'avais créé un RAID avec disk-utility.
D'ailleurs de ton coté, est-ce qu'en lancant disk-utility tu vois bien ton RAID ou est-ce que cet outil et mdadm sont 2 choses séparées ?
c'est ma seule inquiétude.

Hors ligne

#6 Le 01/08/2012, à 15:39

DrSnake

Re : [Résolu] Remontage d'un RAID1 fonctionnel sur nouvelle installation

C'est une dist server, je n'ai pas gnome dessus.

Hors ligne

#7 Le 01/08/2012, à 15:51

OdEa

Re : [Résolu] Remontage d'un RAID1 fonctionnel sur nouvelle installation

arf :> ( moi j'en ai fait un NAS-HTPC que j'ai branché sur mon écran HD tongue )
quoiqu'il en soit merci pour ton aide.
est-ce que d'autres personnes ont déjà reinstallé une ubuntu et retrouvé leur raid avec disk-utility ?

Hors ligne