Contenu | Rechercher | Menus

Annonce

Si vous avez des soucis pour rester connecté, déconnectez-vous puis reconnectez-vous depuis ce lien en cochant la case
Me connecter automatiquement lors de mes prochaines visites.

À propos de l'équipe du forum.

#1 Le 25/04/2009, à 12:17

dacake

8.10 -> 9.04 : mon RAID 1 ne se remonte plus tous seul au démarrage

Bonjour à tous.

J'ai mis à jour mon Ubuntu Server 8.10 vers le Jackalope 9.04 tout neuf, mais depuis, j'ai un soucis récurrent au démarrage du système :

Log of fsck -C -R -A -a
Sat Apr 25 11:18:10 2009

fsck 1.41.4 (27-Jan-2009)
[b]fsck.ext3: No such file or directory while trying to open /dev/md0[/b]
/dev/md0:
The superblock could not be read or does not describe a correct ext2
filesystem.  If the device is valid and it really contains an ext2
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
    e2fsck -b 8193 <device>

/dev/sdb1: clean, 105178/30531584 files, 110338983/122096000 blocks
fsck died with exit status 8

qui me mène à un shell de réparation.

Il s'avère que /dev/md0 n'existe pas ... pourtant, il était présent avant mise à jour vers la 9.10 !
md0, sur mon système, c'est sda5 et sda6 et il s'avère qu'au boot, md0 n'es pas présent, mais à la place j'ai un md_d0 qui ne comporte que sda6 ...

Voici mon /proc/mdstat lorsque je l'observe au boot

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [ra
id10]
md_d0 : inactive sda6[1](S)
      237127296 blocks

unused devices: <none>

Et donc je peux faire ça :

mdstat --stop /dev/md_d0
mdstat --assemble /dev/md0 /dev/sda5 /dev/sda6

et c'est reparti, mes données une fois le montage effectuée lorsque je continue le boot.

Au prochain redémarrage de mon système, rebelotte ! mad

Je ne pense pas avoir de problème de superblock sur md0 car j'ai déjà relancé plusieurs fois e2fsck pour résoudre ça, sans succès.

J'ai cru comprendre en Googlant comme un fou que c'est UDEV qui remonte les partitions au boot et que le problème pourrai venir de là ... mais je n'ai rien trouvé en rapport dans /etc/udev/rules.d

Donc là, je suis sec ... Quelqu'un a une idée ? wink

Merci.:D

#2 Le 26/04/2009, à 21:29

dacake

Re : 8.10 -> 9.04 : mon RAID 1 ne se remonte plus tous seul au démarrage

Bon ... j'ai résolu le pb, mais je ne suis pas sûr de ma méthode.

Afin de forcer un assemblage correct de mon RAID, j'ai inséré dans /etc/mdadm/mdadm.conf une ligne de configuration décrivant précisément mon ensemble RAID. Je pense que "DEVICE partitions" n'est pas suffisant et que la partie "Definitions of existing MD arrays" était manquante ...
Pour info, on l'obtient comme ceci :

sudo mdadm -D --scan
mdadm: metadata format 00.90 unknown, ignored.
ARRAY /dev/md0 level=raid1 num-devices=2 metadata=00.90 UUID=d7707c0e:5b9948f4:6b33ba06:ff9743f8

Et voilà la le mdadm.conf :

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
DEVICE partitions

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR kto@veda

# definitions of existing MD arrays
ARRAY /dev/md0 level=raid1 num-devices=2 metadata=00.90 UUID=d7707c0e:5b9948f4:6b33ba06:ff9743f8

# This file was auto-generated on Sat, 01 Nov 2008 08:27:03 +0000
# by mkconf $Id$

#3 Le 26/04/2009, à 21:41

globoudou

Re : 8.10 -> 9.04 : mon RAID 1 ne se remonte plus tous seul au démarrage

Une solution trouvée ici...

root@jaunty:~# mdadm --examine --scan
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx

récupérer le résultat de cette commande pour le mettre à la fin du fichier /etc/mdadm/mdadm.conf en remplaçant /dev/md0 par /dev/md_d0 (ou le nouveau node créer lors de la migration) soit :

ARRAY /dev/md_d0 level=raid1 num-devices=2 UUID=xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx

d'après le mdadm.conf(5), si on ne veut pas utiliser les UUID des partitions on peut aussi avoir quelque chose de la forme :

ARRAY /dev/md_d0 level=raid1 num-devices=2 devices=/dev/hda1,/dev/hdb1

Par contre je ne sais pas quel process du démarrage se chargeait de scanner les partitions pour monter automatiquement les raids dans les versions précédentes.

#4 Le 27/08/2009, à 10:57

pdany4

Re : 8.10 -> 9.04 : mon RAID 1 ne se remonte plus tous seul au démarrage

Bonjour à tous,

j'vous remercie infiniement d'avoir créer se topic !!!
ayant eu ce problème avec Ubuntu Jaunty 9.04 Serveur 64 bits et mdadm sur un RAID 1 de 2x Samsung Spinpoint F1 de 750Gb, qui me transformé mon raid nommé md0 en md_d0 en me parlant de problème de superblock, j'en ai eu marre et était repassé à dmraid pour du fakeraid, seulement après un plantage et extiction à chaud, mon raid s'est mis en mode "degraded" et pas moyen de lancer un "Rebuild" malgré que normalement c'est possible avec cette version de "dmraid" en faisant un

dmraid -R

J'en ai donc eu marre, rebranché un HDD seul (heureusement que c'était un RAID1 et pas un 0 ou 5, car j'avais plus de données !!! en plus y'en a qu'un sur les 2 HDD que j'ai réussi à monter en manuel (ouf sauvé)

j'ai racheté 2 x Samsung Spinpoint F2 de 1,5To en 5400 rpm

et me suis dis que j'allais repasser à "mdadm" car Linux n'étant pas gourmand en ressources, ça m'embettais de mettre une carte contrôlleur dédié à en plus 400 euros minimum....

donc me voilà reparti,
je désinstall dmraid :

sudo apt-get purge dmraid

j'ré-install mdadm :

sudo apt-get install mdadm

Je ré-install mon raid : il se nomme bien md0, j'le note dans mon fstab pour qu'il soit monté au démarrage du Serveur, je fais un

sudo mount -a

il se monte impec !
je monte ensuite mon Spinpoint F1 du RAID cassé dans /media/backup, le premier impossible, meme opération sur le 2ème ça monte : ouf j'ai toutes mes données !

Direct sans chercher à comprendre je claque tout dans mon nouveau RAID 1,5To, ça prend l'après midi et la soirée !

Je reboot ce matin, oh surprise, plus de md0, plus de raid, à la place un md_d0 dégradé avec superblock et tout....
je cherche je cherche, pis je tombe enfin sur ce topic !

je test les commandes de Dacake, hélas le nom est érronné, ce n'est pas mdstat mais mdadm à tapper, je les redonnes en entier pour les newbies :

mdadm --stop /dev/md_d0
mdadm --assemble /dev/md0 /dev/sda5 /dev/sda6

mon fstab repassé de md_d0 à md0, je retente un :

sudo mount -a

et ça se monte nikel : trop content !!!!

ensuite pour pas avoir à refaire à chaque fois l'opération j'ai vu plus loin dans le sujet qu'un petit

sudo mdadm -D --scan

me sors cette ligne :

mdadm: metadata format 00.90 unknown, ignored.
ARRAY /dev/md0 level=raid1 num-devices=2 metadata=00.90 UUID=625d8970:130bfc2f:25b1cf6f:ea6d1c18

ensuite grand merci à globoudou qui dis de la rentrer dans le mdadm.conf en précisant l'endroit exact où la mettre, donc c'est parti :

sudo gedit /etc/mdadm/mdadm.conf

donc un petit copier-coller depuis le mot ARRAY jusqu'à la fin de la ligne de mon terminal !

je la copier dans le fichier texte comme indiqué, donc sous la ligne :

# definitions of existing MD arrays

je recréer l'espace en dessous, enregistre, quitte !

un coup de

sudo shutdown -r now

pour rebooter mon serveur (ça forge à la ligne de commande) malgré que j'ai installer gnome-desktop et que j'peux le faire à la souris !

au reboot, mon RAID est monté, pas de problème de superblock ou de disparition !!!

Donc, un grand merci à tous pour l'entraide !

Vive Linux, vive Ubuntu !!!

@ Dacake : petite question : sous Ubuntu 8.10, tu n'as jamais eu le souci du md0 transformé en md_d0 ? car je ne comprend pas pourquoi dans une version plus avanncé d'Ubuntu y'a ce souci là !!!
Espéront que ce sera corriger dans le 9.10 qui sort bientôt....

Bonne journée à tous !


Serveur Debian Squeeze 64 Bits avec C2D e6550 OC (FSB 400), 4Go de DDR2 Corsair C5, 1 SSD 60Go = OS, HDD : 1x160Go = fichier temporaires 2 x Samsung Spinpoint F2 de 1,5 To @ 5400rpm en RAID1 et  2 x Western Digital Green de 2 To @ 5400rpm en RAID1 avec mdadm + 1 PC Q9450 et 8Gb de RAM sous Linux Mint 13 (Mate) 64 bits et 1 PC Windows 7 en 32 bits, Core2quad avec 2Gb de RAM (applis radio oblige)

Hors ligne

#5 Le 18/10/2009, à 15:10

ramunt

Re : 8.10 -> 9.04 : mon RAID 1 ne se remonte plus tous seul au démarrage

Bonjour,

J'ai moins de chance ... pour ma part cela ne fonctionne pas.

Je suis en ubuntu 9.04  « Jaunty Jackalope »  (desktop) et j'essaye le config suivante :
Le système sur un Sata et 4 Raids sur 2 autres Sata de 1To.

Le détail des RAIDS :

/dev/md0:
        Version : 00.90
  Creation Time : Wed Oct 14 23:15:56 2009
     Raid Level : raid0
     Array Size : 9767296 (9.31 GiB 10.00 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Wed Oct 14 23:15:56 2009
          State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
  Spare Devices : 0

     Chunk Size : 64K

           UUID : 8e6f1c10:df54aa72:cd98bb57:a7334c44
         Events : 0.1

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       8       33        1      active sync   /dev/sdc1

/dev/md1:
        Version : 00.90
  Creation Time : Wed Oct 14 23:16:02 2009
     Raid Level : raid0
     Array Size : 9767296 (9.31 GiB 10.00 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 1
    Persistence : Superblock is persistent

    Update Time : Wed Oct 14 23:16:02 2009
          State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
  Spare Devices : 0

     Chunk Size : 64K

           UUID : 04842204:b4d094f5:b8b584f6:31e3b1c9
         Events : 0.1

    Number   Major   Minor   RaidDevice State
       0       8        2        0      active sync   /dev/sda2
       1       8       34        1      active sync   /dev/sdc2

/dev/md2:
        Version : 00.90
  Creation Time : Sun Oct 18 09:12:04 2009
     Raid Level : raid1
     Array Size : 483492160 (461.09 GiB 495.10 GB)
  Used Dev Size : 483492160 (461.09 GiB 495.10 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 2
    Persistence : Superblock is persistent

    Update Time : Sun Oct 18 14:25:59 2009
          State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
  Spare Devices : 0

           UUID : c373701e:fa57b4c1:b776dd8d:a772d317 (local to host VBig)
         Events : 0.4

    Number   Major   Minor   RaidDevice State
       0       8        3        0      active sync   /dev/sda3
       1       8       35        1      active sync   /dev/sdc3

/dev/md3:
        Version : 00.90
  Creation Time : Sun Oct 18 09:12:27 2009
     Raid Level : raid1
     Array Size : 483500160 (461.10 GiB 495.10 GB)
  Used Dev Size : 483500160 (461.10 GiB 495.10 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 3
    Persistence : Superblock is persistent

    Update Time : Sun Oct 18 14:22:59 2009
          State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
  Spare Devices : 0

           UUID : 6219e47f:648e33b9:b776dd8d:a772d317 (local to host VBig)
         Events : 0.6

    Number   Major   Minor   RaidDevice State
       0       8        4        0      active sync   /dev/sda4
       1       8       36        1      active sync   /dev/sdc4

Les raids sont donc bien associés et j'arrive à les monter.

Le sudo mdadm -D --scan donne ceci :

ARRAY /dev/md0 level=raid0 num-devices=2 metadata=00.90 UUID=8e6f1c10:df54aa72:cd98bb57:a7334c44
ARRAY /dev/md1 level=raid0 num-devices=2 metadata=00.90 UUID=04842204:b4d094f5:b8b584f6:31e3b1c9
ARRAY /dev/md2 level=raid1 num-devices=2 metadata=00.90 UUID=c373701e:fa57b4c1:b776dd8d:a772d317
ARRAY /dev/md3 level=raid1 num-devices=2 metadata=00.90 UUID=6219e47f:648e33b9:b776dd8d:a772d317

Que j'ai ensuite reporté dans le mdadm.conf.

La différence pour ma part, c'est qu'ils y étaient déjà j'ai juste ajouté le "metadata=00.90"
Ce qui d'ailleurs provoque d'autres erreurs "mdadm: metadata format 00.90 unknown, ignored."

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
DEVICE partitions

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays
ARRAY /dev/md0 level=raid0 num-devices=2 metadata=00.90 UUID=8e6f1c10:df54aa72:cd98bb57:a7334c44
ARRAY /dev/md1 level=raid0 num-devices=2 metadata=00.90 UUID=04842204:b4d094f5:b8b584f6:31e3b1c9
ARRAY /dev/md2 level=raid1 num-devices=2 metadata=00.90 UUID=2966e35b:ff2ce4db:1696e3b8:29945676
ARRAY /dev/md3 level=raid1 num-devices=2 metadata=00.90 UUID=fc8d7f56:6c649863:ab465124:2cbef9d5

# This file was auto-generated on Sat, 17 Oct 2009 22:40:31 +0200
# by mkconf $Id$

Mais ce qui ne change rien au message d'erreur principal.

Voici le log du fsck généré lors du boot :

Log of fsck -C3 -R -A -a
Sun Oct 18 14:17:12 2009

fsck 1.41.4 (27-Jan-2009)
/dev/md0: clean, 11/610800 files, 76514/2441824 blocks
/dev/md1: clean, 11/610800 files, 76514/2441824 blocks
fsck.ext3: No such file or directory while trying to open /dev/md2

/dev/md2:
The superblock could not be read or does not describe a correct ext2
filesystem.  If the device is valid and it really contains an ext2
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
    e2fsck -b 8193 <device>

fsck.ext3: No such file or directory while trying to open /dev/md3

/dev/md3:
The superblock could not be read or does not describe a correct ext2
filesystem.  If the device is valid and it really contains an ext2
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
    e2fsck -b 8193 <device>

fsck died with exit status 8

Sun Oct 18 14:17:12 2009
----------------

Et au final (après le ctrl+D), mes md2 et md3 sont transformés en md_d2 et md_d3 ...
En revanche les md0 et md1 sont bien montés ....

Les pistes :
- Mélanger des raid 0 et raid 1 sur 2 disques ?

- Problèmes de droits sur les disques (je ne pense pas), mais il est vrai que pour le moment les raid ont une appartenance au root, je ne peux donc pas écrire dessus en tant qu'utilisateur.

- Nombre de partition primaire ? Elles sont toutes en primaire, j'ai cru comprendre que cela va poser un problème, mais je ne pense que ce soit le problème actuel

- Taille des partitions ?


Ubuntu destop 9.04 Jaunty 64 Bits sur MSI G43M2, Intel DualCore e6300, 2 Go de DDR2 Patriot, HDD : 1 x 80Go Hitachi = DualBoot, 2 x 1To Barracuda 7200.12 en RAID 1 avec mdadm

Hors ligne

#6 Le 18/10/2009, à 15:40

ramunt

Re : 8.10 -> 9.04 : mon RAID 1 ne se remonte plus tous seul au démarrage

En plus simple, le sudo fdisk -l

Disque /dev/sda: 1000.2 Go, 1000204886016 octets
255 têtes, 63 secteurs/piste, 121601 cylindres
Unités = cylindres de 16065 * 512 = 8225280 octets
Identifiant de disque : 0x000ca002

Périphérique Amorce  Début        Fin      Blocs     Id  Système
/dev/sda1               1         608     4883728+  fd  Linux raid autodetect
/dev/sda2             609        1216     4883760   fd  Linux raid autodetect
/dev/sda3            1217       61408   483492240   fd  Linux raid autodetect
/dev/sda4           61409      121601   483500272+  fd  Linux raid autodetect

Disque /dev/sdb: 82.3 Go, 82348277760 octets
255 têtes, 63 secteurs/piste, 10011 cylindres
Unités = cylindres de 16065 * 512 = 8225280 octets
Identifiant de disque : 0xb09fb09f

Périphérique Amorce  Début        Fin      Blocs     Id  Système
/dev/sdb1   *           1        4686    37640263+   7  HPFS/NTFS
/dev/sdb2            4687        9646    39841200   83  Linux
/dev/sdb3            9647       10011     2931862+   5  Etendue
/dev/sdb5            9647       10011     2931831   82  Linux swap / Solaris

Disque /dev/sdc: 1000.2 Go, 1000204886016 octets
255 têtes, 63 secteurs/piste, 121601 cylindres
Unités = cylindres de 16065 * 512 = 8225280 octets
Identifiant de disque : 0x00005228

Périphérique Amorce  Début        Fin      Blocs     Id  Système
/dev/sdc1               1         608     4883728+  fd  Linux raid autodetect
/dev/sdc2             609        1216     4883760   fd  Linux raid autodetect
/dev/sdc3            1217       61408   483492240   fd  Linux raid autodetect
/dev/sdc4           61409      121601   483500272+  fd  Linux raid autodetect

Disque /dev/md1: 10.0 Go, 10001711104 octets
2 têtes, 4 secteurs/piste, 2441824 cylindres
Unités = cylindres de 8 * 512 = 4096 octets
Identifiant de disque : 0x00000000

Le disque /dev/md1 ne contient pas une table de partition valide

Disque /dev/md0: 10.0 Go, 10001711104 octets
2 têtes, 4 secteurs/piste, 2441824 cylindres
Unités = cylindres de 8 * 512 = 4096 octets
Identifiant de disque : 0x00000000

Le disque /dev/md0 ne contient pas une table de partition valide

Disque /dev/md2: 495.0 Go, 495095971840 octets
2 têtes, 4 secteurs/piste, 120873040 cylindres
Unités = cylindres de 8 * 512 = 4096 octets
Identifiant de disque : 0x00000000

Le disque /dev/md2 ne contient pas une table de partition valide

Disque /dev/md3: 495.1 Go, 495104163840 octets
2 têtes, 4 secteurs/piste, 120875040 cylindres
Unités = cylindres de 8 * 512 = 4096 octets
Identifiant de disque : 0x00000000

Le disque /dev/md3 ne contient pas une table de partition valide


Ubuntu destop 9.04 Jaunty 64 Bits sur MSI G43M2, Intel DualCore e6300, 2 Go de DDR2 Patriot, HDD : 1 x 80Go Hitachi = DualBoot, 2 x 1To Barracuda 7200.12 en RAID 1 avec mdadm

Hors ligne

#7 Le 18/10/2009, à 23:47

ramunt

Re : 8.10 -> 9.04 : mon RAID 1 ne se remonte plus tous seul au démarrage

Bon ca avance smile

J'ai recommencé avec seulement 2 RAID 1 et là ça fonctionne ...

Je n'ai donc pas réussi à faire une sorte de Raid matrix logiciel avec mdadm


Finalement, le fait d'avoir mis des RAID 0 et des RAID 1 en // sur les mêmes disques a provoqué la même erreur

fsck.ext3: No such file or directory while trying to open /dev/md2

/dev/md2:
The superblock could not be read or does not describe a correct ext2
filesystem.  If the device is valid and it really contains an ext2
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
    e2fsck -b 8193 <device>

Dernière modification par ramunt (Le 19/10/2009, à 20:55)


Ubuntu destop 9.04 Jaunty 64 Bits sur MSI G43M2, Intel DualCore e6300, 2 Go de DDR2 Patriot, HDD : 1 x 80Go Hitachi = DualBoot, 2 x 1To Barracuda 7200.12 en RAID 1 avec mdadm

Hors ligne

#8 Le 03/04/2011, à 11:33

pdany4

Re : 8.10 -> 9.04 : mon RAID 1 ne se remonte plus tous seul au démarrage

Oh là RAID0 et RAID1 sur les même disques ? un peu archaïque tout ça !!!
à part une perte de vitesse, franchement je pense que ça ne vaut pas le coup....

à la rigueur un RAID5 à 3 ou 4 disques voir encore un RAID10 (mais véritable) avec forcément 4 disques....

--------------------

Bon je reviens à vous avec d'autres nouvelles, un RAID de 2 Western Digital Green (5400rpm) de 2To ajouté pour le stockage de film, musique (plateforme MULTIMEDIA@home)

J'ai re-suivi tuto sur ce site

ainsi que cette article pour finir, et je vais vous redonnez ça en vrac.....

Tout d'abord un petit logiciel sympa à présenter à cette adresse

donc ensuite attaquons :

- ouvrer un terminal
on va commencer par prévoir le montage automatique de notre futur RAID

gksudo gedit /etc/fstab

et pour ma part j'ai ajouté : /dev/md1     /media/RAID_2000    ext4    defaults        0    1

ensuite je sais pas s'il faut les 2 (j'ai un peu de mal et pour pas faire d'erreur je créer ces 2 ci :

sudo mkdir /mnt/RAID_2000
sudo mkdir /media/RAID_2000

après on va faire les réglages des partitions :

sudo fdisk /dev/sde

chacun ses réglages en cas où il y a plusieurs partitions sur le même disque donc lien qui va bien
Pour ma part :
"n" (pour nouveau)
"p" (pour primaire)
"1" (pour 1 seul partition primaire)
"1" ou "enter" (pour commencer au 1er cylindre du disque, c'est logique pour un disque vierge de commencer du début pour aller vers la fin)
"1" ou "enter" (pour terminer au dernier cylindre du disque)
"t" pour changer le type de partition
"fd" pour passer la partition en "Linux Raid Autodetect"
"enter" afin de valider
"w" (write, pour écrire définitivement tout ça sur le disque)

Ensuite ne pas oublier qu'un RAID c'est plusieurs disques, et faire ça sur les autres également !

sudo fdisk /dev/sdf etc....

ensuite créer un fichier FIFO (apparement ce n'est plus obligatoire, alors )

mknod /dev/md1 b 9 0

Maintenant que tout est prêt, on créer le RAID :

sudo mdadm --create /dev/md1 --level=1 --assume-clean --raid-devices=2 /dev/sd[ef]1

Afin de permettre au RAID de démarrer à chaque reboot de la machine, tapez la commande suivante :

sudo mdadm --daemonise /dev/md0

On vérifie maintenant l'état des disques :

sudo fdisk -l

On formate le volume RAID :

sudo mkfs.ext4 -j /dev/md1

On assemble (ça m'parait bizarre d'assembler après avoir formaté, mais c'est dans l'ordre que j'ai tapé dans l'terminal)

sudo mdadm --assemble /dev/md1 /dev/sde /dev/sdf

On lit les détails :

sudo mdadm --detail /dev/md1
sudo nautilus

Pour aller changer les permissions sur /media/RAID_2000 (sinon seul root peut monter et écrire dans le RAID)


Ensuite pour en revenir à ce forum et cette discution, voici dans l'ordre que j'ai procédé :

sudo mdadm --examine --scan

--->> pour avoir l'UUID  du volume

gksudo gedit /etc/mdadm/mdadm.conf

--->> pour insérer la dernière ligne (en gras) (j'vous copie le tout pour voir l'endroit):

# definitions of existing MD arrays
ARRAY /dev/md0 level=raid1 num-devices=2 metadata=00.90 UUID=625d8970:130bfc2f:25b1cf6f:ea6d1c18
[b]ARRAY /dev/md1 level=raid1 num-devices=2 UUID=818e3ec3:a89d3e83:25b1cf6f:ea6d1c18[/b]

Dans cet exemple 2 RAID dans le même serveur.

vérif :

sudo fdisk -l

ça me disait :

Le disque /dev/md1 ne contient pas une table de partition valide

malgré que je l'avais bien formaté en ext4...

J'ai donc tapé ce code sur mon ami Google
et j'ai trouvé à faire ceci :

sudo fdisk /dev/md1

y'avait plus qu'a taper : p
et ensuite : w

j'ai revérifier ensuite :

sudo fdisk -l

Tout nikel !!!

Par contre obligé de re-formater (j'ai pas procédé dans le bon ordre) :

sudo mkfs.ext4 -j /dev/md1

Quelques commandes au cas où :

sudo mdadm -D --scan
sudo mdadm --examine --scan
cat /proc/mdstat
sudo mdadm --detail /dev/md0

---------------

quand le RAID déconne ;

sudo mdadm --stop /dev/md0
sudo mdadm --assemble /dev/md0 /dev/sdc /dev/sdd
sudo mount -a

PS : ne pas oublier que j'avais déjà créé un RAID1 de 2x1,5To donc je tape md1 et non md0 pour ma part....
Ensuite les sde sdf sont "mes" partitions du md1
Mais aussi le formatage ext4 c'est ce que "j'ai choisi"

En espérant que ça serve à quelqu'un !


Serveur Debian Squeeze 64 Bits avec C2D e6550 OC (FSB 400), 4Go de DDR2 Corsair C5, 1 SSD 60Go = OS, HDD : 1x160Go = fichier temporaires 2 x Samsung Spinpoint F2 de 1,5 To @ 5400rpm en RAID1 et  2 x Western Digital Green de 2 To @ 5400rpm en RAID1 avec mdadm + 1 PC Q9450 et 8Gb de RAM sous Linux Mint 13 (Mate) 64 bits et 1 PC Windows 7 en 32 bits, Core2quad avec 2Gb de RAM (applis radio oblige)

Hors ligne