#1 Le 25/04/2009, à 11:17
- dacake
8.10 -> 9.04 : mon RAID 1 ne se remonte plus tous seul au démarrage
Bonjour à tous.
J'ai mis à jour mon Ubuntu Server 8.10 vers le Jackalope 9.04 tout neuf, mais depuis, j'ai un soucis récurrent au démarrage du système :
Log of fsck -C -R -A -a
Sat Apr 25 11:18:10 2009
fsck 1.41.4 (27-Jan-2009)
[b]fsck.ext3: No such file or directory while trying to open /dev/md0[/b]
/dev/md0:
The superblock could not be read or does not describe a correct ext2
filesystem. If the device is valid and it really contains an ext2
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
e2fsck -b 8193 <device>
/dev/sdb1: clean, 105178/30531584 files, 110338983/122096000 blocks
fsck died with exit status 8
qui me mène à un shell de réparation.
Il s'avère que /dev/md0 n'existe pas ... pourtant, il était présent avant mise à jour vers la 9.10 !
md0, sur mon système, c'est sda5 et sda6 et il s'avère qu'au boot, md0 n'es pas présent, mais à la place j'ai un md_d0 qui ne comporte que sda6 ...
Voici mon /proc/mdstat lorsque je l'observe au boot
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [ra
id10]
md_d0 : inactive sda6[1](S)
237127296 blocks
unused devices: <none>
Et donc je peux faire ça :
mdstat --stop /dev/md_d0
mdstat --assemble /dev/md0 /dev/sda5 /dev/sda6
et c'est reparti, mes données une fois le montage effectuée lorsque je continue le boot.
Au prochain redémarrage de mon système, rebelotte !
Je ne pense pas avoir de problème de superblock sur md0 car j'ai déjà relancé plusieurs fois e2fsck pour résoudre ça, sans succès.
J'ai cru comprendre en Googlant comme un fou que c'est UDEV qui remonte les partitions au boot et que le problème pourrai venir de là ... mais je n'ai rien trouvé en rapport dans /etc/udev/rules.d
Donc là, je suis sec ... Quelqu'un a une idée ?
Merci.:D
#2 Le 26/04/2009, à 20:29
- dacake
Re : 8.10 -> 9.04 : mon RAID 1 ne se remonte plus tous seul au démarrage
Bon ... j'ai résolu le pb, mais je ne suis pas sûr de ma méthode.
Afin de forcer un assemblage correct de mon RAID, j'ai inséré dans /etc/mdadm/mdadm.conf une ligne de configuration décrivant précisément mon ensemble RAID. Je pense que "DEVICE partitions" n'est pas suffisant et que la partie "Definitions of existing MD arrays" était manquante ...
Pour info, on l'obtient comme ceci :
sudo mdadm -D --scan
mdadm: metadata format 00.90 unknown, ignored.
ARRAY /dev/md0 level=raid1 num-devices=2 metadata=00.90 UUID=d7707c0e:5b9948f4:6b33ba06:ff9743f8
Et voilà la le mdadm.conf :
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
DEVICE partitions
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
MAILADDR kto@veda
# definitions of existing MD arrays
ARRAY /dev/md0 level=raid1 num-devices=2 metadata=00.90 UUID=d7707c0e:5b9948f4:6b33ba06:ff9743f8
# This file was auto-generated on Sat, 01 Nov 2008 08:27:03 +0000
# by mkconf $Id$
#3 Le 26/04/2009, à 20:41
- globoudou
Re : 8.10 -> 9.04 : mon RAID 1 ne se remonte plus tous seul au démarrage
Une solution trouvée ici...
root@jaunty:~# mdadm --examine --scan
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
récupérer le résultat de cette commande pour le mettre à la fin du fichier /etc/mdadm/mdadm.conf en remplaçant /dev/md0 par /dev/md_d0 (ou le nouveau node créer lors de la migration) soit :
ARRAY /dev/md_d0 level=raid1 num-devices=2 UUID=xxxxxxxx:xxxxxxxx:xxxxxxxx:xxxxxxxx
d'après le mdadm.conf(5), si on ne veut pas utiliser les UUID des partitions on peut aussi avoir quelque chose de la forme :
ARRAY /dev/md_d0 level=raid1 num-devices=2 devices=/dev/hda1,/dev/hdb1
Par contre je ne sais pas quel process du démarrage se chargeait de scanner les partitions pour monter automatiquement les raids dans les versions précédentes.
#4 Le 27/08/2009, à 09:57
- pdany4
Re : 8.10 -> 9.04 : mon RAID 1 ne se remonte plus tous seul au démarrage
Bonjour à tous,
j'vous remercie infiniement d'avoir créer se topic !!!
ayant eu ce problème avec Ubuntu Jaunty 9.04 Serveur 64 bits et mdadm sur un RAID 1 de 2x Samsung Spinpoint F1 de 750Gb, qui me transformé mon raid nommé md0 en md_d0 en me parlant de problème de superblock, j'en ai eu marre et était repassé à dmraid pour du fakeraid, seulement après un plantage et extiction à chaud, mon raid s'est mis en mode "degraded" et pas moyen de lancer un "Rebuild" malgré que normalement c'est possible avec cette version de "dmraid" en faisant un
dmraid -R
J'en ai donc eu marre, rebranché un HDD seul (heureusement que c'était un RAID1 et pas un 0 ou 5, car j'avais plus de données !!! en plus y'en a qu'un sur les 2 HDD que j'ai réussi à monter en manuel (ouf sauvé)
j'ai racheté 2 x Samsung Spinpoint F2 de 1,5To en 5400 rpm
et me suis dis que j'allais repasser à "mdadm" car Linux n'étant pas gourmand en ressources, ça m'embettais de mettre une carte contrôlleur dédié à en plus 400 euros minimum....
donc me voilà reparti,
je désinstall dmraid :
sudo apt-get purge dmraid
j'ré-install mdadm :
sudo apt-get install mdadm
Je ré-install mon raid : il se nomme bien md0, j'le note dans mon fstab pour qu'il soit monté au démarrage du Serveur, je fais un
sudo mount -a
il se monte impec !
je monte ensuite mon Spinpoint F1 du RAID cassé dans /media/backup, le premier impossible, meme opération sur le 2ème ça monte : ouf j'ai toutes mes données !
Direct sans chercher à comprendre je claque tout dans mon nouveau RAID 1,5To, ça prend l'après midi et la soirée !
Je reboot ce matin, oh surprise, plus de md0, plus de raid, à la place un md_d0 dégradé avec superblock et tout....
je cherche je cherche, pis je tombe enfin sur ce topic !
je test les commandes de Dacake, hélas le nom est érronné, ce n'est pas mdstat mais mdadm à tapper, je les redonnes en entier pour les newbies :
mdadm --stop /dev/md_d0
mdadm --assemble /dev/md0 /dev/sda5 /dev/sda6
mon fstab repassé de md_d0 à md0, je retente un :
sudo mount -a
et ça se monte nikel : trop content !!!!
ensuite pour pas avoir à refaire à chaque fois l'opération j'ai vu plus loin dans le sujet qu'un petit
sudo mdadm -D --scan
me sors cette ligne :
mdadm: metadata format 00.90 unknown, ignored.
ARRAY /dev/md0 level=raid1 num-devices=2 metadata=00.90 UUID=625d8970:130bfc2f:25b1cf6f:ea6d1c18
ensuite grand merci à globoudou qui dis de la rentrer dans le mdadm.conf en précisant l'endroit exact où la mettre, donc c'est parti :
sudo gedit /etc/mdadm/mdadm.conf
donc un petit copier-coller depuis le mot ARRAY jusqu'à la fin de la ligne de mon terminal !
je la copier dans le fichier texte comme indiqué, donc sous la ligne :
# definitions of existing MD arrays
je recréer l'espace en dessous, enregistre, quitte !
un coup de
sudo shutdown -r now
pour rebooter mon serveur (ça forge à la ligne de commande) malgré que j'ai installer gnome-desktop et que j'peux le faire à la souris !
au reboot, mon RAID est monté, pas de problème de superblock ou de disparition !!!
Donc, un grand merci à tous pour l'entraide !
Vive Linux, vive Ubuntu !!!
@ Dacake : petite question : sous Ubuntu 8.10, tu n'as jamais eu le souci du md0 transformé en md_d0 ? car je ne comprend pas pourquoi dans une version plus avanncé d'Ubuntu y'a ce souci là !!!
Espéront que ce sera corriger dans le 9.10 qui sort bientôt....
Bonne journée à tous !
Serveur Debian Squeeze 64 Bits avec C2D e6550 OC (FSB 400), 4Go de DDR2 Corsair C5, 1 SSD 60Go = OS, HDD : 1x160Go = fichier temporaires 2 x Samsung Spinpoint F2 de 1,5 To @ 5400rpm en RAID1 et 2 x Western Digital Green de 2 To @ 5400rpm en RAID1 avec mdadm + 1 PC Q9450 et 8Gb de RAM sous Linux Mint 13 (Mate) 64 bits et 1 PC Windows 7 en 32 bits, Core2quad avec 2Gb de RAM (applis radio oblige)
Hors ligne
#5 Le 18/10/2009, à 14:10
- ramunt
Re : 8.10 -> 9.04 : mon RAID 1 ne se remonte plus tous seul au démarrage
Bonjour,
J'ai moins de chance ... pour ma part cela ne fonctionne pas.
Je suis en ubuntu 9.04 « Jaunty Jackalope » (desktop) et j'essaye le config suivante :
Le système sur un Sata et 4 Raids sur 2 autres Sata de 1To.
Le détail des RAIDS :
/dev/md0:
Version : 00.90
Creation Time : Wed Oct 14 23:15:56 2009
Raid Level : raid0
Array Size : 9767296 (9.31 GiB 10.00 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 0
Persistence : Superblock is persistentUpdate Time : Wed Oct 14 23:15:56 2009
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0Chunk Size : 64K
UUID : 8e6f1c10:df54aa72:cd98bb57:a7334c44
Events : 0.1Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 33 1 active sync /dev/sdc1
/dev/md1:
Version : 00.90
Creation Time : Wed Oct 14 23:16:02 2009
Raid Level : raid0
Array Size : 9767296 (9.31 GiB 10.00 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 1
Persistence : Superblock is persistentUpdate Time : Wed Oct 14 23:16:02 2009
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0Chunk Size : 64K
UUID : 04842204:b4d094f5:b8b584f6:31e3b1c9
Events : 0.1Number Major Minor RaidDevice State
0 8 2 0 active sync /dev/sda2
1 8 34 1 active sync /dev/sdc2
/dev/md2:
Version : 00.90
Creation Time : Sun Oct 18 09:12:04 2009
Raid Level : raid1
Array Size : 483492160 (461.09 GiB 495.10 GB)
Used Dev Size : 483492160 (461.09 GiB 495.10 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 2
Persistence : Superblock is persistentUpdate Time : Sun Oct 18 14:25:59 2009
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0UUID : c373701e:fa57b4c1:b776dd8d:a772d317 (local to host VBig)
Events : 0.4Number Major Minor RaidDevice State
0 8 3 0 active sync /dev/sda3
1 8 35 1 active sync /dev/sdc3
/dev/md3:
Version : 00.90
Creation Time : Sun Oct 18 09:12:27 2009
Raid Level : raid1
Array Size : 483500160 (461.10 GiB 495.10 GB)
Used Dev Size : 483500160 (461.10 GiB 495.10 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 3
Persistence : Superblock is persistentUpdate Time : Sun Oct 18 14:22:59 2009
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0UUID : 6219e47f:648e33b9:b776dd8d:a772d317 (local to host VBig)
Events : 0.6Number Major Minor RaidDevice State
0 8 4 0 active sync /dev/sda4
1 8 36 1 active sync /dev/sdc4
Les raids sont donc bien associés et j'arrive à les monter.
Le sudo mdadm -D --scan donne ceci :
ARRAY /dev/md0 level=raid0 num-devices=2 metadata=00.90 UUID=8e6f1c10:df54aa72:cd98bb57:a7334c44
ARRAY /dev/md1 level=raid0 num-devices=2 metadata=00.90 UUID=04842204:b4d094f5:b8b584f6:31e3b1c9
ARRAY /dev/md2 level=raid1 num-devices=2 metadata=00.90 UUID=c373701e:fa57b4c1:b776dd8d:a772d317
ARRAY /dev/md3 level=raid1 num-devices=2 metadata=00.90 UUID=6219e47f:648e33b9:b776dd8d:a772d317
Que j'ai ensuite reporté dans le mdadm.conf.
La différence pour ma part, c'est qu'ils y étaient déjà j'ai juste ajouté le "metadata=00.90"
Ce qui d'ailleurs provoque d'autres erreurs "mdadm: metadata format 00.90 unknown, ignored."
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
## by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
DEVICE partitions# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes# automatically tag new arrays as belonging to the local system
HOMEHOST <system># instruct the monitoring daemon where to send mail alerts
MAILADDR root# definitions of existing MD arrays
ARRAY /dev/md0 level=raid0 num-devices=2 metadata=00.90 UUID=8e6f1c10:df54aa72:cd98bb57:a7334c44
ARRAY /dev/md1 level=raid0 num-devices=2 metadata=00.90 UUID=04842204:b4d094f5:b8b584f6:31e3b1c9
ARRAY /dev/md2 level=raid1 num-devices=2 metadata=00.90 UUID=2966e35b:ff2ce4db:1696e3b8:29945676
ARRAY /dev/md3 level=raid1 num-devices=2 metadata=00.90 UUID=fc8d7f56:6c649863:ab465124:2cbef9d5# This file was auto-generated on Sat, 17 Oct 2009 22:40:31 +0200
# by mkconf $Id$
Mais ce qui ne change rien au message d'erreur principal.
Voici le log du fsck généré lors du boot :
Log of fsck -C3 -R -A -a
Sun Oct 18 14:17:12 2009fsck 1.41.4 (27-Jan-2009)
/dev/md0: clean, 11/610800 files, 76514/2441824 blocks
/dev/md1: clean, 11/610800 files, 76514/2441824 blocks
fsck.ext3: No such file or directory while trying to open /dev/md2/dev/md2:
The superblock could not be read or does not describe a correct ext2
filesystem. If the device is valid and it really contains an ext2
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
e2fsck -b 8193 <device>fsck.ext3: No such file or directory while trying to open /dev/md3
/dev/md3:
The superblock could not be read or does not describe a correct ext2
filesystem. If the device is valid and it really contains an ext2
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
e2fsck -b 8193 <device>fsck died with exit status 8
Sun Oct 18 14:17:12 2009
----------------
Et au final (après le ctrl+D), mes md2 et md3 sont transformés en md_d2 et md_d3 ...
En revanche les md0 et md1 sont bien montés ....
Les pistes :
- Mélanger des raid 0 et raid 1 sur 2 disques ?
- Problèmes de droits sur les disques (je ne pense pas), mais il est vrai que pour le moment les raid ont une appartenance au root, je ne peux donc pas écrire dessus en tant qu'utilisateur.
- Nombre de partition primaire ? Elles sont toutes en primaire, j'ai cru comprendre que cela va poser un problème, mais je ne pense que ce soit le problème actuel
- Taille des partitions ?
Ubuntu destop 9.04 Jaunty 64 Bits sur MSI G43M2, Intel DualCore e6300, 2 Go de DDR2 Patriot, HDD : 1 x 80Go Hitachi = DualBoot, 2 x 1To Barracuda 7200.12 en RAID 1 avec mdadm
Hors ligne
#6 Le 18/10/2009, à 14:40
- ramunt
Re : 8.10 -> 9.04 : mon RAID 1 ne se remonte plus tous seul au démarrage
En plus simple, le sudo fdisk -l
Disque /dev/sda: 1000.2 Go, 1000204886016 octets
255 têtes, 63 secteurs/piste, 121601 cylindres
Unités = cylindres de 16065 * 512 = 8225280 octets
Identifiant de disque : 0x000ca002Périphérique Amorce Début Fin Blocs Id Système
/dev/sda1 1 608 4883728+ fd Linux raid autodetect
/dev/sda2 609 1216 4883760 fd Linux raid autodetect
/dev/sda3 1217 61408 483492240 fd Linux raid autodetect
/dev/sda4 61409 121601 483500272+ fd Linux raid autodetectDisque /dev/sdb: 82.3 Go, 82348277760 octets
255 têtes, 63 secteurs/piste, 10011 cylindres
Unités = cylindres de 16065 * 512 = 8225280 octets
Identifiant de disque : 0xb09fb09fPériphérique Amorce Début Fin Blocs Id Système
/dev/sdb1 * 1 4686 37640263+ 7 HPFS/NTFS
/dev/sdb2 4687 9646 39841200 83 Linux
/dev/sdb3 9647 10011 2931862+ 5 Etendue
/dev/sdb5 9647 10011 2931831 82 Linux swap / SolarisDisque /dev/sdc: 1000.2 Go, 1000204886016 octets
255 têtes, 63 secteurs/piste, 121601 cylindres
Unités = cylindres de 16065 * 512 = 8225280 octets
Identifiant de disque : 0x00005228Périphérique Amorce Début Fin Blocs Id Système
/dev/sdc1 1 608 4883728+ fd Linux raid autodetect
/dev/sdc2 609 1216 4883760 fd Linux raid autodetect
/dev/sdc3 1217 61408 483492240 fd Linux raid autodetect
/dev/sdc4 61409 121601 483500272+ fd Linux raid autodetectDisque /dev/md1: 10.0 Go, 10001711104 octets
2 têtes, 4 secteurs/piste, 2441824 cylindres
Unités = cylindres de 8 * 512 = 4096 octets
Identifiant de disque : 0x00000000Le disque /dev/md1 ne contient pas une table de partition valide
Disque /dev/md0: 10.0 Go, 10001711104 octets
2 têtes, 4 secteurs/piste, 2441824 cylindres
Unités = cylindres de 8 * 512 = 4096 octets
Identifiant de disque : 0x00000000Le disque /dev/md0 ne contient pas une table de partition valide
Disque /dev/md2: 495.0 Go, 495095971840 octets
2 têtes, 4 secteurs/piste, 120873040 cylindres
Unités = cylindres de 8 * 512 = 4096 octets
Identifiant de disque : 0x00000000Le disque /dev/md2 ne contient pas une table de partition valide
Disque /dev/md3: 495.1 Go, 495104163840 octets
2 têtes, 4 secteurs/piste, 120875040 cylindres
Unités = cylindres de 8 * 512 = 4096 octets
Identifiant de disque : 0x00000000Le disque /dev/md3 ne contient pas une table de partition valide
Ubuntu destop 9.04 Jaunty 64 Bits sur MSI G43M2, Intel DualCore e6300, 2 Go de DDR2 Patriot, HDD : 1 x 80Go Hitachi = DualBoot, 2 x 1To Barracuda 7200.12 en RAID 1 avec mdadm
Hors ligne
#7 Le 18/10/2009, à 22:47
- ramunt
Re : 8.10 -> 9.04 : mon RAID 1 ne se remonte plus tous seul au démarrage
Bon ca avance
J'ai recommencé avec seulement 2 RAID 1 et là ça fonctionne ...
Je n'ai donc pas réussi à faire une sorte de Raid matrix logiciel avec mdadm
Finalement, le fait d'avoir mis des RAID 0 et des RAID 1 en // sur les mêmes disques a provoqué la même erreur
fsck.ext3: No such file or directory while trying to open /dev/md2
/dev/md2:
The superblock could not be read or does not describe a correct ext2
filesystem. If the device is valid and it really contains an ext2
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
e2fsck -b 8193 <device>
Dernière modification par ramunt (Le 19/10/2009, à 19:55)
Ubuntu destop 9.04 Jaunty 64 Bits sur MSI G43M2, Intel DualCore e6300, 2 Go de DDR2 Patriot, HDD : 1 x 80Go Hitachi = DualBoot, 2 x 1To Barracuda 7200.12 en RAID 1 avec mdadm
Hors ligne
#8 Le 03/04/2011, à 10:33
- pdany4
Re : 8.10 -> 9.04 : mon RAID 1 ne se remonte plus tous seul au démarrage
Oh là RAID0 et RAID1 sur les même disques ? un peu archaïque tout ça !!!
à part une perte de vitesse, franchement je pense que ça ne vaut pas le coup....
à la rigueur un RAID5 à 3 ou 4 disques voir encore un RAID10 (mais véritable) avec forcément 4 disques....
--------------------
Bon je reviens à vous avec d'autres nouvelles, un RAID de 2 Western Digital Green (5400rpm) de 2To ajouté pour le stockage de film, musique (plateforme MULTIMEDIA@home)
J'ai re-suivi tuto sur ce site
ainsi que cette article pour finir, et je vais vous redonnez ça en vrac.....
Tout d'abord un petit logiciel sympa à présenter à cette adresse
donc ensuite attaquons :
- ouvrer un terminal
on va commencer par prévoir le montage automatique de notre futur RAID
gksudo gedit /etc/fstab
et pour ma part j'ai ajouté : /dev/md1 /media/RAID_2000 ext4 defaults 0 1
ensuite je sais pas s'il faut les 2 (j'ai un peu de mal et pour pas faire d'erreur je créer ces 2 ci :
sudo mkdir /mnt/RAID_2000
sudo mkdir /media/RAID_2000
après on va faire les réglages des partitions :
sudo fdisk /dev/sde
chacun ses réglages en cas où il y a plusieurs partitions sur le même disque donc lien qui va bien
Pour ma part :
"n" (pour nouveau)
"p" (pour primaire)
"1" (pour 1 seul partition primaire)
"1" ou "enter" (pour commencer au 1er cylindre du disque, c'est logique pour un disque vierge de commencer du début pour aller vers la fin)
"1" ou "enter" (pour terminer au dernier cylindre du disque)
"t" pour changer le type de partition
"fd" pour passer la partition en "Linux Raid Autodetect"
"enter" afin de valider
"w" (write, pour écrire définitivement tout ça sur le disque)
Ensuite ne pas oublier qu'un RAID c'est plusieurs disques, et faire ça sur les autres également !
sudo fdisk /dev/sdf etc....
ensuite créer un fichier FIFO (apparement ce n'est plus obligatoire, alors )
mknod /dev/md1 b 9 0
Maintenant que tout est prêt, on créer le RAID :
sudo mdadm --create /dev/md1 --level=1 --assume-clean --raid-devices=2 /dev/sd[ef]1
Afin de permettre au RAID de démarrer à chaque reboot de la machine, tapez la commande suivante :
sudo mdadm --daemonise /dev/md0
On vérifie maintenant l'état des disques :
sudo fdisk -l
On formate le volume RAID :
sudo mkfs.ext4 -j /dev/md1
On assemble (ça m'parait bizarre d'assembler après avoir formaté, mais c'est dans l'ordre que j'ai tapé dans l'terminal)
sudo mdadm --assemble /dev/md1 /dev/sde /dev/sdf
On lit les détails :
sudo mdadm --detail /dev/md1
sudo nautilus
Pour aller changer les permissions sur /media/RAID_2000 (sinon seul root peut monter et écrire dans le RAID)
Ensuite pour en revenir à ce forum et cette discution, voici dans l'ordre que j'ai procédé :
sudo mdadm --examine --scan
--->> pour avoir l'UUID du volume
gksudo gedit /etc/mdadm/mdadm.conf
--->> pour insérer la dernière ligne (en gras) (j'vous copie le tout pour voir l'endroit):
# definitions of existing MD arrays
ARRAY /dev/md0 level=raid1 num-devices=2 metadata=00.90 UUID=625d8970:130bfc2f:25b1cf6f:ea6d1c18
[b]ARRAY /dev/md1 level=raid1 num-devices=2 UUID=818e3ec3:a89d3e83:25b1cf6f:ea6d1c18[/b]
Dans cet exemple 2 RAID dans le même serveur.
vérif :
sudo fdisk -l
ça me disait :
Le disque /dev/md1 ne contient pas une table de partition valide
malgré que je l'avais bien formaté en ext4...
J'ai donc tapé ce code sur mon ami Google
et j'ai trouvé à faire ceci :
sudo fdisk /dev/md1
y'avait plus qu'a taper : p
et ensuite : w
j'ai revérifier ensuite :
sudo fdisk -l
Tout nikel !!!
Par contre obligé de re-formater (j'ai pas procédé dans le bon ordre) :
sudo mkfs.ext4 -j /dev/md1
Quelques commandes au cas où :
sudo mdadm -D --scan
sudo mdadm --examine --scan
cat /proc/mdstat
sudo mdadm --detail /dev/md0
---------------
quand le RAID déconne ;
sudo mdadm --stop /dev/md0
sudo mdadm --assemble /dev/md0 /dev/sdc /dev/sdd
sudo mount -a
PS : ne pas oublier que j'avais déjà créé un RAID1 de 2x1,5To donc je tape md1 et non md0 pour ma part....
Ensuite les sde sdf sont "mes" partitions du md1
Mais aussi le formatage ext4 c'est ce que "j'ai choisi"
En espérant que ça serve à quelqu'un !
Serveur Debian Squeeze 64 Bits avec C2D e6550 OC (FSB 400), 4Go de DDR2 Corsair C5, 1 SSD 60Go = OS, HDD : 1x160Go = fichier temporaires 2 x Samsung Spinpoint F2 de 1,5 To @ 5400rpm en RAID1 et 2 x Western Digital Green de 2 To @ 5400rpm en RAID1 avec mdadm + 1 PC Q9450 et 8Gb de RAM sous Linux Mint 13 (Mate) 64 bits et 1 PC Windows 7 en 32 bits, Core2quad avec 2Gb de RAM (applis radio oblige)
Hors ligne