#26 Le 08/10/2019, à 16:12
- Optarion
Re : [Résolu] volume dégradé RAID 5
Merci à tous pour vos multiples discussions/propositions
geole: j'avais branché les dds un par un car je pensais que cela était utile pour certaines vérifications demandées par Hoper mais si ce n'est pas le cas, c'est plus simple pour moi!.
Je vais vérifier la version RAID de toutes les partitions et vous les donnerai dès que possible (idéalement ce soir).
jamesbad000: attention à ne pas confondre mon problème avec celui initial du thread. Encore une fois, j'ai honteusement squatté celui-ci étant donné qu'il me semblait très proche de mon problème et n'était plus suivis par son propriétaire. Mes messages commencent aux post #9 et donc tu verras que je n'ai bien aucune detection de superblock sur mes DDs
Je lance le lsblk dès que possible. Merci
Hors ligne
#27 Le 08/10/2019, à 17:59
- Nuliel
Re : [Résolu] volume dégradé RAID 5
Modération: c'est bien pour cela qu'il faut créer ton propre fil, et à défaut il faut que tu signales à la modération les messages à scinder pour en créer une nouvelle discussion
Je scinde à partir du message 9
Hors ligne
#28 Le 08/10/2019, à 21:06
- Optarion
Re : [Résolu] volume dégradé RAID 5
Merci Naziel pour avoir cree un nouveau topic
geole: voici les screenshots demandes
Et voici le resultat du lsblk:
ubuntu@ubuntu:~$ sudo lsblk -o size,name,fstype,label,mountpoint
SIZE NAME FSTYPE LABEL MOUNTPOINT
1.9G loop0 squashfs /rofs
88.5M loop1 squashfs /snap/core/7270
54.4M loop2 squashfs /snap/core18/1066
42.8M loop3 squashfs /snap/gtk-common-themes/1313
149.9M loop4 squashfs /snap/gnome-3-28-1804/67
4M loop5 squashfs /snap/gnome-calculator/406
14.8M loop6 squashfs /snap/gnome-characters/296
1008K loop7 squashfs /snap/gnome-logs/61
3.7M loop8 squashfs /snap/gnome-system-monitor/100
223.6G sda
223.6G └─sda1 ntfs Nouveau nom
465.8G sdb
2.4G ├─sdb1 linux_raid_membe
509.9M ├─sdb2 linux_raid_membe [SWAP]
462.8G └─sdb3 linux_raid_membe
465.8G sdc
2.4G ├─sdc1 linux_raid_membe
509.9M ├─sdc2 linux_raid_membe [SWAP]
462.8G └─sdc3 linux_raid_membe
465.8G sdd
2.4G ├─sdd1 linux_raid_membe
509.9M ├─sdd2 linux_raid_membe [SWAP]
462.8G └─sdd3 linux_raid_membe
931.5G sde
100M ├─sde1 ntfs Réservé au système
244G ├─sde2 ntfs
687.4G └─sde3 ntfs Data
7.6G sdj
7.6G └─sdj1 vfat UBUNTU 18_0 /cdrom
1024M sr0
ubuntu@ubuntu:~$ ls -l /dev/disk/by-id
total 0
lrwxrwxrwx 1 root root 9 Oct 8 19:49 ata-INTEL_SSDSC2BW240A3L_CVCV245206ZT240CGN -> ../../sda
lrwxrwxrwx 1 root root 10 Oct 8 19:49 ata-INTEL_SSDSC2BW240A3L_CVCV245206ZT240CGN-part1 -> ../../sda1
lrwxrwxrwx 1 root root 9 Oct 8 19:49 ata-TSSTcorp_CDDVDW_SH-222AB_R8BZ6GFB528629 -> ../../sr0
lrwxrwxrwx 1 root root 9 Oct 8 19:49 ata-WDC_WD10EARX-00N0YB0_WD-WCC0S0021646 -> ../../sde
lrwxrwxrwx 1 root root 10 Oct 8 19:49 ata-WDC_WD10EARX-00N0YB0_WD-WCC0S0021646-part1 -> ../../sde1
lrwxrwxrwx 1 root root 10 Oct 8 19:49 ata-WDC_WD10EARX-00N0YB0_WD-WCC0S0021646-part2 -> ../../sde2
lrwxrwxrwx 1 root root 10 Oct 8 19:49 ata-WDC_WD10EARX-00N0YB0_WD-WCC0S0021646-part3 -> ../../sde3
lrwxrwxrwx 1 root root 9 Oct 8 19:49 ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929 -> ../../sdc
lrwxrwxrwx 1 root root 10 Oct 8 19:49 ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part1 -> ../../sdc1
lrwxrwxrwx 1 root root 10 Oct 8 19:49 ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part2 -> ../../sdc2
lrwxrwxrwx 1 root root 10 Oct 8 19:49 ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part3 -> ../../sdc3
lrwxrwxrwx 1 root root 9 Oct 8 19:49 ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329 -> ../../sdb
lrwxrwxrwx 1 root root 10 Oct 8 19:49 ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part1 -> ../../sdb1
lrwxrwxrwx 1 root root 10 Oct 8 19:49 ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part2 -> ../../sdb2
lrwxrwxrwx 1 root root 10 Oct 8 19:49 ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part3 -> ../../sdb3
lrwxrwxrwx 1 root root 9 Oct 8 19:49 ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784 -> ../../sdd
lrwxrwxrwx 1 root root 10 Oct 8 19:49 ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part1 -> ../../sdd1
lrwxrwxrwx 1 root root 10 Oct 8 19:49 ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part2 -> ../../sdd2
lrwxrwxrwx 1 root root 10 Oct 8 19:49 ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part3 -> ../../sdd3
lrwxrwxrwx 1 root root 9 Oct 8 19:49 usb-General_UDisk-0:0 -> ../../sdj
lrwxrwxrwx 1 root root 10 Oct 8 19:49 usb-General_UDisk-0:0-part1 -> ../../sdj1
lrwxrwxrwx 1 root root 9 Oct 8 19:49 usb-Generic-_Compact_Flash_058F63646476-0:1 -> ../../sdg
lrwxrwxrwx 1 root root 9 Oct 8 19:49 usb-Generic-_MS_MS-Pro_058F63646476-0:3 -> ../../sdi
lrwxrwxrwx 1 root root 9 Oct 8 19:49 usb-Generic-_SD_MMC_058F63646476-0:0 -> ../../sdf
lrwxrwxrwx 1 root root 9 Oct 8 19:49 usb-Generic-_SM_xD-Picture_058F63646476-0:2 -> ../../sdh
lrwxrwxrwx 1 root root 9 Oct 8 19:49 wwn-0x50014ee102d9e4b2 -> ../../sdb
lrwxrwxrwx 1 root root 10 Oct 8 19:49 wwn-0x50014ee102d9e4b2-part1 -> ../../sdb1
lrwxrwxrwx 1 root root 10 Oct 8 19:49 wwn-0x50014ee102d9e4b2-part2 -> ../../sdb2
lrwxrwxrwx 1 root root 10 Oct 8 19:49 wwn-0x50014ee102d9e4b2-part3 -> ../../sdb3
lrwxrwxrwx 1 root root 9 Oct 8 19:49 wwn-0x50014ee1582ef1ff -> ../../sdd
lrwxrwxrwx 1 root root 10 Oct 8 19:49 wwn-0x50014ee1582ef1ff-part1 -> ../../sdd1
lrwxrwxrwx 1 root root 10 Oct 8 19:49 wwn-0x50014ee1582ef1ff-part2 -> ../../sdd2
lrwxrwxrwx 1 root root 10 Oct 8 19:49 wwn-0x50014ee1582ef1ff-part3 -> ../../sdd3
lrwxrwxrwx 1 root root 9 Oct 8 19:49 wwn-0x50014ee1ad7dfd37 -> ../../sdc
lrwxrwxrwx 1 root root 10 Oct 8 19:49 wwn-0x50014ee1ad7dfd37-part1 -> ../../sdc1
lrwxrwxrwx 1 root root 10 Oct 8 19:49 wwn-0x50014ee1ad7dfd37-part2 -> ../../sdc2
lrwxrwxrwx 1 root root 10 Oct 8 19:49 wwn-0x50014ee1ad7dfd37-part3 -> ../../sdc3
lrwxrwxrwx 1 root root 9 Oct 8 19:49 wwn-0x50014ee205f2c4a0 -> ../../sde
lrwxrwxrwx 1 root root 10 Oct 8 19:49 wwn-0x50014ee205f2c4a0-part1 -> ../../sde1
lrwxrwxrwx 1 root root 10 Oct 8 19:49 wwn-0x50014ee205f2c4a0-part2 -> ../../sde2
lrwxrwxrwx 1 root root 10 Oct 8 19:49 wwn-0x50014ee205f2c4a0-part3 -> ../../sde3
lrwxrwxrwx 1 root root 9 Oct 8 19:49 wwn-0x5001517387e8504f -> ../../sda
lrwxrwxrwx 1 root root 10 Oct 8 19:49 wwn-0x5001517387e8504f-part1 -> ../../sda1
Dernière modification par Optarion (Le 09/10/2019, à 20:03)
Hors ligne
#29 Le 08/10/2019, à 21:53
- jamesbad000
Re : [Résolu] volume dégradé RAID 5
selon lsblk il y a bien des superblocs raid détectés sur toutes les partitions de sdb,c,d.
Avec une curiosité: les partitions n° 2 sont montées en swap alors que le fs détecté est raid.
Creusons avec:
sudo mdadm --examine /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF599*-part*
sudo file -ksL /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part2
edit: corrigé bégaiement dans le chemin d'accès ci-dessus
Les screenshot (d'ou viennent-ils ?) eux ne concernent pas les partitions n° 3 qui sont pourtant l'essentiel du volume...
Dernière modification par jamesbad000 (Le 08/10/2019, à 22:00)
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#30 Le 08/10/2019, à 23:37
- geole
Re : [Résolu] volume dégradé RAID 5
Bonsoir Jamesbad000
A l'échange 14 de l'ancienne discussion, une copie d'écran de GNOME-DISK-UTILITY faite pour une partition 3 d'un des trois disques m'avait semblé intéressante dans la mesure où on voyait la version RAIDS. d'où l'idée de demander comment c'était pour les partitions 1 et 2 des trois disques
Manifestement c'est pareil .
ubuntu@ubuntu:~$ sudo mdadm --verbose --assemble /dev/md0 /dev/sdb3 /dev/sdc3 /dev/sdd3 mdadm: looking for devices for /dev/md0 mdadm: no recogniseable superblock on /dev/sdb3 mdadm: /dev/sdb3 has no superblock - assembly aborted
concernant les partitions sur les disques, voici ce que je vois via l'app Disk (identique pour chaque disk)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
En ligne
#31 Le 09/10/2019, à 08:46
- Optarion
Re : [Résolu] volume dégradé RAID 5
Les screenshots sont fait à partir de l'app "Disks" d'Ubuntu. Je peux faire les screens des 3 partitions n°3 si besoin.
Je lance les commandes ce soir.
Merci à vous tous
Hors ligne
#32 Le 09/10/2019, à 14:14
- Hoper
Re : [Résolu] volume dégradé RAID 5
@jamesbad000 : Tu es sur que lsblk "detecte" des metadata raid ? Pour moi il se contente de lire le MBR et affiche simplement le type de la partition. Donc ici des partitions de type FD. Quand au partitionnement il a été automatiquement réalisé par DSM... le seul raid qui qu'il faut reconstituer est celui se trouvant sur la troisième partition de chaque disque.
Mais geole à raison, je n'avais pas réalisé que le format (0.90 donc) apparaissait dans les captures d'écran. C'est clairement cette partie la qui est la plus interessante (et l'info que je cherchai désespérement alors que je l'avais sous les yeux...)
Du coup, personnellement en mode gros bourin je lancerai le --create avec assume-clean... Maintenant je laisse les experts se prononcer hein J'ai prevenu (plein de fois) que la manip était risquée. Je suis parti du principe qu'il n'était pas possible de dumper les 3 disques avant. Si je me trompe et si l'espace est disponible ailleurs, il faut bien sur faire le dump. Surtout que ce ne sont que des disques de 500 GB... Donc pas de soucis pour faire 3 dd vers un disque de 2To par exemple. Et un disque de 2To, j'imagine que ça doit se trouver...
Mes tutos et coups de gueule :
http://hoper.dnsalias.net/atdc/
Mastodon: @hoper@framapiaf.org
Hors ligne
#33 Le 09/10/2019, à 14:46
- rmy
Re : [Résolu] volume dégradé RAID 5
selon lsblk il y a bien des superblocs raid détectés sur toutes les partitions de sdb,c,d.
Avec une curiosité: les partitions n° 2 sont montées en swap alors que le fs détecté est raid.
Probablement non jamesbad000.
Ce ne sont pas les métadonnées RAID ici qui sont détectées, mais la manière dont la partition a été formatée (type "fd").
Les partitions 2 sont probablement à l'origine en RAID1 (comme la première partition d'ailleurs) et ensuite le RAID1 est formaté en SWAP, ainsi, comme en 0.9 les méta RAID sont à la fin, tu te retrouves bien avec 3 SWAP identiques sur chacun des disques au début de ces partitions.
@Optarion, peux-tu lancer testdisk sur l'un de tes disques stp, disque complet, options : pas d'alignement, table de partition none, et le laisser tourner jusqu'au bout en deepscan, pour voir ce qu'il s'y trouve ?
EDIT : Je suis complètement d'accord avec Hoper dont je n'avais pas vu le message avent d'écrire le mien.
1- testdisk pour essayer de retrouver des méta raid si les partitions ne sont plus alignées correctement pour une raison ou une autre (ça aiderait à savoir l'ordre des disques sans trop creuser en hexadécimal…
2- Images disques vers un DD de 2To
3- --create
Dernière modification par rmy (Le 09/10/2019, à 14:58)
récupération de données: vrac–topic unique–mon site pro pour les particuliers : www.diskcard.fr– Je recycle volontiers tous vos disques durs HS (ou pas).
Le site pro pour les pros, spécialiste recupération de données RAID, NAS et serveurs: www.vodata.fr
Hors ligne
#34 Le 09/10/2019, à 19:20
- jamesbad000
Re : [Résolu] volume dégradé RAID 5
@jamesbad000 : Tu es sur que lsblk "detecte" des metadata raid ? Pour moi il se contente de lire le MBR et affiche simplement le type de la partition.
Oui j'en suis sur. lsblk analyse le contenu des périphérique de bloc comme le fait la commande mount ou blkid.
D'ailleurs, rien dans linux n'utilise les attributs qui sont dans la table de partition à part les logiciels de partitionnements. ou de boot.
Il suffit de lire le man de la commande. Et tout ça peut se vérifier facilement :
fredk1804@MirageK1804:~$ truncate -s 100M test.disk
fredk1804@MirageK1804:~$ sudo losetup /dev/loop0 test.disk
fredk1804@MirageK1804:~$ sudo parted test.disk mklabel msdos
fredk1804@MirageK1804:~$ sudo parted /dev/loop0 mkpart primary NTFS 2048s 100MB
Information: Ne pas oublier de mettre à jour /etc/fstab si nécessaire.
fredk1804@MirageK1804:~$ sudo fdisk -l /dev/loop0
Disque /dev/loop0 : 100 MiB, 104857600 octets, 204800 secteurs
(...)
Périphérique Amorçage Début Fin Secteurs Taille Id Type
/dev/loop0p1 2048 194559 192512 94M 7 HPFS/NTFS/exFAT
fredk1804@MirageK1804:~$ sudo lsblk -o size,name,fstype,label,mountpoint
SIZE NAME FSTYPE LABEL MOUNTPOINT
100M loop0
94M └─loop0p1
Vous noterez qu'aucun système de fichier n'est identifié par lsblk
Et maintenant :
fredk1804@MirageK1804:~$ sudo mke2fs -t ext4 /dev/loop0p1
(...)
Écriture des superblocs et de l'information de comptabilité du système de
fichiers : complété
fredk1804@MirageK1804:~$ sudo lsblk -o size,name,fstype,label,mountpoint
SIZE NAME FSTYPE LABEL MOUNTPOINT
100M loop0
94M └─loop0p1 ext4
Et donc avant de se lancer dans testdisk, et tout ce que ça implique.
Juste lancer les 2 commandes que j'ai indiqué ne coûte pas grand chose. Si il y a un seul disque désynchronisé qui empêche l'assemblage, ça sera quand même bien moins compliqué de faire l'assemblage avec les 2 bon disques, et remettre le 3ème après...
Dernière modification par jamesbad000 (Le 09/10/2019, à 19:56)
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#35 Le 09/10/2019, à 20:00
- Optarion
Re : [Résolu] volume dégradé RAID 5
Je vous avoue etre un peu perdu dans toutes vos propositions.
Voici donc deja pour les commandes de james
ubuntu@ubuntu:~$ sudo mdadm --examine /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF599*-part*
mdadm: No md superblock detected on /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part1.
mdadm: No md superblock detected on /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part2.
mdadm: No md superblock detected on /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part3.
mdadm: No md superblock detected on /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part1.
mdadm: No md superblock detected on /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part2.
mdadm: No md superblock detected on /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part3.
mdadm: No md superblock detected on /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part1.
mdadm: No md superblock detected on /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part2.
mdadm: No md superblock detected on /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part3.
ubuntu@ubuntu:~$ sudo file -ksL /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part2
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part2: Linux/i386 swap file (new style), version 1 (4K pages), size 130511 pages, no label, UUID=00000000-0000-0000-0000-000000000000\012- data
Pour le testdisk, j'ai fait l'installation mais je suis bloque sur certains ecran. Par ex, que dois je selectionner ici:
Sinon, j'ai aussi ajoute les screens des 3 partitions pour les disques avec les autres de mon precedent post
Hors ligne
#36 Le 09/10/2019, à 20:37
- jamesbad000
Re : [Résolu] volume dégradé RAID 5
Ok. C'est le parfait contre exemple donc.
Je vous avoue etre un peu perdu dans toutes vos propositions.
Ne fait surtout pas mdadm --create tant qu'on ne t'a pas donné les paramètres précis à utiliser !
Pour le testdisk, j'ai fait l'installation mais je suis bloque sur certains ecran. Par ex, que dois je selectionner ici:
Assure toi d'avoir bien choisi "non partitionned device" dans l'écran précédent.
Et ici va dans modify options et passe l'otion "Align partition:" à no
arprès validation et retour à ce même écran "Analyse"
ensuite valider les écrans successifs jusqu'au "deep search"
Après, je serais bien curieux d'avoir le résultat de
sudo fdisk -l /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329
sudo blkid /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF599*-part*
sudo lsb_release -a
sudo uname -a
Dernière modification par jamesbad000 (Le 09/10/2019, à 22:10)
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#37 Le 09/10/2019, à 22:34
- rmy
Re : [Résolu] volume dégradé RAID 5
@jamesbad000 merci pour la précision, et désolé pour l'erreur, j'étais persuadé que lsblk retournait l'info sur le type de partition, comme fdisk.
@Optarion : juste pour être sûr, peux-tu donner aussi le retour de :
sudo mdadm --examine /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF599*-part* -e 0.9
(tu peux lancer ça dans un autre terminal sans couper testdisk)
récupération de données: vrac–topic unique–mon site pro pour les particuliers : www.diskcard.fr– Je recycle volontiers tous vos disques durs HS (ou pas).
Le site pro pour les pros, spécialiste recupération de données RAID, NAS et serveurs: www.vodata.fr
Hors ligne
#38 Le 09/10/2019, à 23:03
- jamesbad000
Re : [Résolu] volume dégradé RAID 5
@rmy Y a pas de mal...
Je viens de tester du raid format 0.9. Et je n'ai pas eu besoin de forcer -e 0.9 avec examine pour qu'il me crache le superbloc.
Donc au cas ou ça ne changerais rien, blkid (ou lsblk en ajoutant la colonne uuid) pourrait nous sortir l'uuid du composant raid et confirmer la présence d'un superbloc. Ce qui amènerais à conclure qu'on travail avec une version foireuse de mdadm ou un super bloc pas totalement conforme...
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#39 Le 10/10/2019, à 09:13
- rmy
Re : [Résolu] volume dégradé RAID 5
@jamesbad000 je n'ai pas d'explication pour ça, je ne sais pas assez finement comment fonctionne mdadm et ses métadonnées pour le justifier, mais observations concrètes de ces dix années d'expérience pro : j'ai régulièrement constaté des cas où mdadm seul ne donnait pas de résultat, mais où le fait de forcer -0.9 permettait d'avoir un retour. Je ne saurais pas te dire si c'est lié à un problème avec la manière dont sont écrit les blocs (hypothèse, les NAS ont peut être des versions un peu tweekées ?) ou un problème ponctuel (peut-être une régression/bug avec une version de mdadm à l'écriture ou à la lecture)… je sais juste de manière empirique que ça m'a parfois facilité la tâche…
récupération de données: vrac–topic unique–mon site pro pour les particuliers : www.diskcard.fr– Je recycle volontiers tous vos disques durs HS (ou pas).
Le site pro pour les pros, spécialiste recupération de données RAID, NAS et serveurs: www.vodata.fr
Hors ligne
#40 Le 10/10/2019, à 09:36
- Optarion
Re : [Résolu] volume dégradé RAID 5
Je lancerai le testdisk ce soir. Est ce que je choisi n'importe lequel des 3 disks ou l'un d'entre eux est préféré ?
Avez-vous une idée du temps que cela prend? Pour savoir comment je dois m'organiser.
Je lancerai aussi ton --examine rmy
Dernière modification par Optarion (Le 10/10/2019, à 09:37)
Hors ligne
#41 Le 10/10/2019, à 09:50
- rmy
Re : [Résolu] volume dégradé RAID 5
@Optarion : N'importe lequel des disques fera l'affaire, testdisk ça se compte en heures…
récupération de données: vrac–topic unique–mon site pro pour les particuliers : www.diskcard.fr– Je recycle volontiers tous vos disques durs HS (ou pas).
Le site pro pour les pros, spécialiste recupération de données RAID, NAS et serveurs: www.vodata.fr
Hors ligne
#42 Le 10/10/2019, à 18:41
- Optarion
Re : [Résolu] volume dégradé RAID 5
En attendant le resultat de testdisk voici deja le mdadm --examine
ubuntu@ubuntu:~$ sudo mdadm --examine /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF599*-part* -e 0.9
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part1:
Magic : a92b4efc
Version : 0.90.00
UUID : 8dd34b1e:57d9fcec:ac3a0d90:958c2f94
Creation Time : Tue May 11 12:15:40 2004
Raid Level : raid1
Used Dev Size : 2489920 (2.37 GiB 2.55 GB)
Array Size : 2489920 (2.37 GiB 2.55 GB)
Raid Devices : 4
Total Devices : 2
Preferred Minor : 0
Update Time : Fri Apr 27 23:29:53 2018
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 1
Spare Devices : 0
Checksum : 6c66b199 - correct
Events : 963542
Number Major Minor RaidDevice State
this 1 8 33 1 active sync /dev/sdc1
0 0 0 0 0 removed
1 1 8 33 1 active sync /dev/sdc1
2 2 8 49 2 active sync /dev/sdd1
3 3 0 0 3 faulty removed
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part2:
Magic : a92b4efc
Version : 0.90.00
UUID : e8d9e9dd:8c6e9fe5:48393982:73a3945a
Creation Time : Wed May 2 22:08:57 2018
Raid Level : raid1
Used Dev Size : 522048 (509.81 MiB 534.58 MB)
Array Size : 522048 (509.81 MiB 534.58 MB)
Raid Devices : 4
Total Devices : 3
Preferred Minor : 1
Update Time : Sat Sep 28 22:42:39 2019
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 1
Spare Devices : 0
Checksum : 92d2b8ef - correct
Events : 148
Number Major Minor RaidDevice State
this 1 8 18 1 active sync /dev/sdb2
0 0 8 2 0 active sync
1 1 8 18 1 active sync /dev/sdb2
2 2 8 50 2 active sync /dev/sdd2
3 3 0 0 3 faulty removed
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part3:
Magic : a92b4efc
Version : 0.90.00
UUID : f370ed9e:8bc870e9:e280e5f2:00e9935e
Creation Time : Wed Aug 18 15:35:09 2010
Raid Level : raid5
Used Dev Size : 485243200 (462.76 GiB 496.89 GB)
Array Size : 970486400 (925.53 GiB 993.78 GB)
Raid Devices : 3
Total Devices : 2
Preferred Minor : 2
Update Time : Sat Sep 28 22:41:48 2019
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 1
Spare Devices : 0
Checksum : d2b84417 - correct
Events : 490
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 2 8 19 2 active sync /dev/sdb3
0 0 8 3 0 active sync
1 1 0 0 1 faulty removed
2 2 8 19 2 active sync /dev/sdb3
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part1:
Magic : a92b4efc
Version : 0.90.00
UUID : 8dd34b1e:57d9fcec:ac3a0d90:958c2f94
Creation Time : Tue May 11 12:15:40 2004
Raid Level : raid1
Used Dev Size : 2489920 (2.37 GiB 2.55 GB)
Array Size : 2489920 (2.37 GiB 2.55 GB)
Raid Devices : 4
Total Devices : 2
Preferred Minor : 0
Update Time : Fri Apr 27 23:29:53 2018
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 1
Spare Devices : 0
Checksum : 6c66b1ab - correct
Events : 963542
Number Major Minor RaidDevice State
this 2 8 49 2 active sync /dev/sdd1
0 0 0 0 0 removed
1 1 8 33 1 active sync /dev/sdc1
2 2 8 49 2 active sync /dev/sdd1
3 3 0 0 3 faulty removed
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part2:
Magic : a92b4efc
Version : 0.90.00
UUID : e8d9e9dd:8c6e9fe5:48393982:73a3945a
Creation Time : Wed May 2 22:08:57 2018
Raid Level : raid1
Used Dev Size : 522048 (509.81 MiB 534.58 MB)
Array Size : 522048 (509.81 MiB 534.58 MB)
Raid Devices : 4
Total Devices : 3
Preferred Minor : 1
Update Time : Sat Sep 28 22:42:39 2019
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 1
Spare Devices : 0
Checksum : 92d2b911 - correct
Events : 148
Number Major Minor RaidDevice State
this 2 8 50 2 active sync /dev/sdd2
0 0 8 2 0 active sync
1 1 8 18 1 active sync /dev/sdb2
2 2 8 50 2 active sync /dev/sdd2
3 3 0 0 3 faulty removed
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part3:
Magic : a92b4efc
Version : 0.90.00
UUID : f370ed9e:8bc870e9:e280e5f2:00e9935e
Creation Time : Wed Aug 18 15:35:09 2010
Raid Level : raid5
Used Dev Size : 485243200 (462.76 GiB 496.89 GB)
Array Size : 970486400 (925.53 GiB 993.78 GB)
Raid Devices : 3
Total Devices : 2
Preferred Minor : 2
Update Time : Fri Apr 27 23:32:46 2018
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 1
Spare Devices : 0
Checksum : d00c1577 - correct
Events : 442
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 1 8 51 1 active sync /dev/sdd3
0 0 8 19 0 active sync /dev/sdb3
1 1 8 51 1 active sync /dev/sdd3
2 2 0 0 2 faulty removed
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part1:
Magic : a92b4efc
Version : 0.90.00
UUID : 8dd34b1e:57d9fcec:ac3a0d90:958c2f94
Creation Time : Tue May 11 12:15:40 2004
Raid Level : raid1
Used Dev Size : 2489920 (2.37 GiB 2.55 GB)
Array Size : 2489920 (2.37 GiB 2.55 GB)
Raid Devices : 4
Total Devices : 1
Preferred Minor : 0
Update Time : Sat Sep 28 22:43:15 2019
State : clean
Active Devices : 1
Working Devices : 1
Failed Devices : 3
Spare Devices : 0
Checksum : 6f12eff3 - correct
Events : 965494
Number Major Minor RaidDevice State
this 0 8 1 0 active sync /dev/sda1
0 0 8 1 0 active sync /dev/sda1
1 1 0 0 1 faulty removed
2 2 0 0 2 faulty removed
3 3 0 0 3 faulty removed
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part2:
Magic : a92b4efc
Version : 0.90.00
UUID : e8d9e9dd:8c6e9fe5:48393982:73a3945a
Creation Time : Wed May 2 22:08:57 2018
Raid Level : raid1
Used Dev Size : 522048 (509.81 MiB 534.58 MB)
Array Size : 522048 (509.81 MiB 534.58 MB)
Raid Devices : 4
Total Devices : 3
Preferred Minor : 1
Update Time : Sat Sep 28 22:42:39 2019
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 1
Spare Devices : 0
Checksum : 92d2b8dd - correct
Events : 148
Number Major Minor RaidDevice State
this 0 8 2 0 active sync
0 0 8 2 0 active sync
1 1 8 18 1 active sync /dev/sdb2
2 2 8 50 2 active sync /dev/sdd2
3 3 0 0 3 faulty removed
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part3:
Magic : a92b4efc
Version : 0.90.00
UUID : f370ed9e:8bc870e9:e280e5f2:00e9935e
Creation Time : Wed Aug 18 15:35:09 2010
Raid Level : raid5
Used Dev Size : 485243200 (462.76 GiB 496.89 GB)
Array Size : 970486400 (925.53 GiB 993.78 GB)
Raid Devices : 3
Total Devices : 2
Preferred Minor : 2
Update Time : Sat Sep 28 22:41:48 2019
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 1
Spare Devices : 0
Checksum : d2b84403 - correct
Events : 490
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 0 8 3 0 active sync
0 0 8 3 0 active sync
1 1 0 0 1 faulty removed
2 2 8 19 2 active sync /dev/sdb3
pour le testdisk je suis desole de mon incompetence mais je prefere demander pour ne pas faire de betise. Je n'ai pas de choix 'Non partitioned device' mais un choix 'Non partitioned media'. J imagine que c'est bien ca mais je prefere verifier avant.
Pour info j install testdisk en suivant les indications ici https://doc.ubuntu-fr.org/testdisk
Dernière modification par Optarion (Le 10/10/2019, à 18:48)
Hors ligne
#43 Le 10/10/2019, à 18:56
- geole
Re : [Résolu] volume dégradé RAID 5
Bonjour
C'est bien Non partitionned media
J'ai noté qu'un disque a été déclaré faulty removed.
Il faut probablement une option particulière au moment de la commande assemble. mais la discussion est entre bonnes mains.
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
En ligne
#44 Le 10/10/2019, à 19:08
- jamesbad000
Re : [Résolu] volume dégradé RAID 5
Bingo. Pour la grosse partition on a 2 disques synchronisés (tourne sur 2 pattes depuis Avril 2018 !)
Assemblage avec les 2 bon disques :
sudo mdadm --assemble /dev/md0 -e 0.9 --run /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part3 /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part3
Puis si pas de message d'erreur, redonner
sudo lsblk -o size,name,fstype,label,mountpoint,uuid
Je n'ai pas de choix 'Non partitioned device' mais un choix 'Non partitioned media'.J imagine que c'est bien ca mais je prefere verifier avant.
C'est bien ça, mais ça devrait s'avérer inutile... SI déjà lancé tu peux faire en parallèle la manip indiquée si dessus dans une autre session de terminal.
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#45 Le 10/10/2019, à 20:08
- rmy
Re : [Résolu] volume dégradé RAID 5
@jamesbad000 :-p Un tout joli exemple de la différence entre la théorie et la pratique ;-)
@geole probablement pas besoin du testdisk effectivement, et si la commande donnée par jamesbad000 pour l'assemblage ne passe pas, donne dans ce cas les trois --examine sur les partition3
récupération de données: vrac–topic unique–mon site pro pour les particuliers : www.diskcard.fr– Je recycle volontiers tous vos disques durs HS (ou pas).
Le site pro pour les pros, spécialiste recupération de données RAID, NAS et serveurs: www.vodata.fr
Hors ligne
#46 Le 10/10/2019, à 21:16
- Optarion
Re : [Résolu] volume dégradé RAID 5
J ai fini le testdisk avant de voir vos messages donc voici les screens au cas ou
ubuntu@ubuntu:~$ sudo fdisk -l /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329
Disk /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329: 465.8 GiB, 500107862016 bytes, 976773168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0xa445f661
Device Boot Start End Sectors Size Id Type
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part1 63 4980149 4980087 2.4G fd Linu
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part2 4980150 6024374 1044225 509.9M fd Linu
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part3 6281415 976768064 970486650 462.8G fd Linu
ubuntu@ubuntu:~$ sudo blkid /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF599*-part*
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part1: UUID="8dd34b1e-57d9-fcec-ac3a-0d90958c2f94" TYPE="linux_raid_member" PARTUUID="a445f66f-01"
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part2: UUID="e8d9e9dd-8c6e-9fe5-4839-398273a3945a" TYPE="linux_raid_member" PARTUUID="a445f66f-02"
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part3: UUID="f370ed9e-8bc8-70e9-e280-e5f200e9935e" TYPE="linux_raid_member" PARTUUID="a445f66f-03"
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part1: UUID="8dd34b1e-57d9-fcec-ac3a-0d90958c2f94" TYPE="linux_raid_member" PARTUUID="a445f661-01"
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part2: UUID="e8d9e9dd-8c6e-9fe5-4839-398273a3945a" TYPE="linux_raid_member" PARTUUID="a445f661-02"
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part3: UUID="f370ed9e-8bc8-70e9-e280-e5f200e9935e" TYPE="linux_raid_member" PARTUUID="a445f661-03"
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part1: UUID="8dd34b1e-57d9-fcec-ac3a-0d90958c2f94" TYPE="linux_raid_member" PARTUUID="a445f663-01"
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part2: UUID="e8d9e9dd-8c6e-9fe5-4839-398273a3945a" TYPE="linux_raid_member" PARTUUID="a445f663-02"
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part3: UUID="f370ed9e-8bc8-70e9-e280-e5f200e9935e" TYPE="linux_raid_member" PARTUUID="a445f663-03"
ubuntu@ubuntu:~$ sudo lsb_release -a
No LSB modules are available.
Distributor ID: Ubuntu
Description: Ubuntu 18.04.3 LTS
Release: 18.04
Codename: bionic
ubuntu@ubuntu:~$ sudo uname -a
Linux ubuntu 5.0.0-23-generic #24~18.04.1-Ubuntu SMP Mon Jul 29 16:12:28 UTC 2019 x86_64 x86_64 x86_64 GNU/Linux
ubuntu@ubuntu:~$ sudo mdadm --assemble /dev/md0 -e 0.9 --run /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part3 /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part3
mdadm: failed to add /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part3 to /dev/md0: Invalid argument
mdadm: failed to add /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part3 to /dev/md0: Invalid argument
mdadm: failed to RUN_ARRAY /dev/md0: Invalid argument
ubuntu@ubuntu:~$ sudo mdadm --examine /dev/sdb3
mdadm: No md superblock detected on /dev/sdb3.
ubuntu@ubuntu:~$ sudo mdadm --examine /dev/sdb3
mdadm: No md superblock detected on /dev/sdb3.
ubuntu@ubuntu:~$ sudo mdadm --examine /dev/sdc3
mdadm: No md superblock detected on /dev/sdc3.
ubuntu@ubuntu:~$ sudo mdadm --examine /dev/sdd3
mdadm: No md superblock detected on /dev/sdd3.
Dernière modification par Optarion (Le 10/10/2019, à 21:18)
Hors ligne
#47 Le 10/10/2019, à 22:54
- jamesbad000
Re : [Résolu] volume dégradé RAID 5
mdadm: failed to RUN_ARRAY /dev/md0: Invalid argument
Quel argument est invalide ? pourtant si je reprend la commande chez moi ça fonctionne . Et les noms de dev sont bon...
Essayons tout de même avec les noms cours...
sudo mdadm --assemble /dev/md0 -e 0.9 --run /dev/sd[cd]
et en dernier recours
sudo mdadm --assemble /dev/md0 --run /dev/sd[cd]
@rmy en regardant la doc sur https://raid.wiki.kernel.org/index.php/ … ck_formats, j'ai l'explication de la difficulté avec le superbloc 0.9. La formulation n'est pas superexplicite, mais je déduis que L'endianess est variable
Et effectivement chez moi si je force -e 0.9 il répond
mdadm: No super block found on /dev/loop0p1 (Expected magic a92b4efc, got fc4e2ba9)
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#48 Le 11/10/2019, à 07:12
- rmy
Re : [Résolu] volume dégradé RAID 5
merci @jamesbad000 pour l'explication potentielle.
@Optarion
Peut-être qu'il y a une question d'ordre des arguments ?
à tout hasard :
sudo losetup /dev/loop0 /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part3
sudo losetup /dev/loop1 /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part3
sudo mdadm -A /dev/md0 /dev/loop0 /dev/loop1 -e 0.9 -fR
récupération de données: vrac–topic unique–mon site pro pour les particuliers : www.diskcard.fr– Je recycle volontiers tous vos disques durs HS (ou pas).
Le site pro pour les pros, spécialiste recupération de données RAID, NAS et serveurs: www.vodata.fr
Hors ligne
#49 Le 11/10/2019, à 08:42
- Optarion
Re : [Résolu] volume dégradé RAID 5
Bingo. Pour la grosse partition on a 2 disques synchronisés (tourne sur 2 pattes depuis Avril 2018 !).
Alors oui, j'ai oublié de prévenir que le problème de RAID est survenu en avril 2018. A l'époque j'avais commencé à demander de l'aide sur le forum Synology mais j'ai dû m'arrêter en cours de route (arrivée d'un bébé) et le topic a disparu du forum depuis. Donc tout est resté bien au chaud en place dans le NAS jusqu'à ce que je puisse me remettre au sujet !
Est ce que je lance plutôt les --assemble de jamesbond ou les commandes de rmy ? ou les deux ?
Dernière modification par Optarion (Le 11/10/2019, à 08:44)
Hors ligne
#50 Le 11/10/2019, à 09:17
- rmy
Re : [Résolu] volume dégradé RAID 5
Aucune n'est dangereuse, tu peux y aller pour toutes et t'arrêter si ça fonctionne ;-) et nous donner les retours, ça pourra peut-être nous éclairer.
edit : @jamesbad000, peut-être faut-il se pencher là-dessus, mais je vais être charette et peu présent aujourd'hui…
The byteorder option allows arrays to be moved between machines with different byte-order. When assembling such an array for the first time after a move, giving --update=byteorder will cause mdadm to expect superblocks to have their byteorder reversed, and will correct that order before assembling the array. This is only valid with original (Version 0.90) superblocks.
Dernière modification par rmy (Le 11/10/2019, à 09:20)
récupération de données: vrac–topic unique–mon site pro pour les particuliers : www.diskcard.fr– Je recycle volontiers tous vos disques durs HS (ou pas).
Le site pro pour les pros, spécialiste recupération de données RAID, NAS et serveurs: www.vodata.fr
Hors ligne