#1 Le 29/09/2019, à 21:14
- Optarion
[Résolu] volume dégradé RAID 5
Bonjour,
Je suis dans la meme situation skilk. J'ai 3 DD en raid 5 et mon nas m'indique qu'un volume est degrade.
J'ai suivis la procedure https://www.synology.com/en-us/knowledg … using_a_PC pour recuperer mes donnees en branchant les DDs dans mon pc et en bootant sur un ubuntu mais malheureusement quand je fais le
mdadm -Asf && vgchange -ay
, je tombe sur un 'mdadm: No arrays found in config file or automatically'
Du coup, j'ai continue mes recherches et l'article que tu donnes @hoper.
J'ai fait un
mdadm --examine /dev/sdb1
(mes dds sont sdb, sdc et sdd) et j'ai a chaque fois j'ai l'output 'is not an md array'. Si je tente un
mdadm --examine /dev/sdb
(sans le num de partition) j'ai:
MBR Magic : aa55
Partition[0] : 4980087 sectors at 63 (type fd)
Partition[1] : 1044225 sectors at 4980150 (type fd)
Partition[2] : 970486650 sectors at 6281415 (type fd)
J'imagine que le probleme vient du fait que synology a un RAID custom (SHR). Mais vu que je suis totalement novice et que tu parlais de cet article peut etre auras-tu une idee.
A noter que les disques sont biens visibles avec un fdisk -l. l'application 'Disk', en faisant un bklid (ex: /dev/sdb3: UUID="f370ed9e-8bc8-70e9-e280-e5f200e9935e" TYPE="linux_raid_member" PARTUUID="a445f661-03") et ont les memes UUID (je ne sais pas si c'est une bonne chose)
Merci d'avance si vous avez des idees
Dernière modification par Optarion (Le 12/10/2019, à 21:36)
Hors ligne
#2 Le 30/09/2019, à 08:49
- Hoper
Re : [Résolu] volume dégradé RAID 5
Bonjour,
A mon avis tu n'a pas indiqué le bon numéro de partition. D'après ce que je lis, ce serait plutôt la troisième qui serait intéressante. Que donne :
mdadm --examine /dev/sdb3
mdadm --examine /dev/sdc3
mdadm --examine /dev/sdd3
EDIT: Si tu peux aussi m'en dire un peu plus sur ce qui s'est passé... (entre le moment ou ça fonctionnait et maintenant)
Dernière modification par Hoper (Le 30/09/2019, à 08:59)
Mes tutos et coups de gueule :
http://hoper.dnsalias.net/atdc/
Mastodon: @hoper@framapiaf.org
Hors ligne
#3 Le 30/09/2019, à 13:14
- Optarion
Re : [Résolu] volume dégradé RAID 5
A vrai dire, il ne s'est pas passé grand chose.
J'utilise ce Nas pour de la synchronisation et du backup (je sais c'est mal) et je l'éteint tous les jours parce que je n'allume pas mon pc tous les jours.
Un jour, au démarrage, des bips réguliers se font entendre et je reçois un email du diskstation disant "le volume 1 est dégradé".
Comme je n'y connais pas grand chose en NAS/RAID, j'ai demandé de l'aide sur le forum synology et on m'a orienté vers le lien "how to recover your data using a pc" et tu connais la suite.
concernant les commandes mdadm --examine /dev/sdb3, je l'ai tnté sur toutes les partitions et j'ai toujours la réponse '... is not an md array'.
Merci pour ton aide !
Hors ligne
#4 Le 30/09/2019, à 14:15
- Hoper
Re : [Résolu] volume dégradé RAID 5
Ouch... Je pensai vraiment que c'était juste un problème de numéro de partition... Mais la ça semble beaucoup plus grave que prévu. Mais du coup, j'avoue que je comprend pas trop... Un disque qui à un soucis, c'est fréquent.. Mais les 3 en même temps ? Impossible... Le problème vient d'ailleurs.
Tu n'avais que 3 disques dans le NAS ? Quel modèle de NAS c'était ? Le volume était bien "redondant" (en gros c'était bien du raid 5 ? Il te disait pas que c'était un raid sans aucune sécurité ?)
PS : Juste pour info : Faire des backups c'est super bien (ça veut dire que les données ne sont pas perdus et que tu les a ailleurs). Par contre, allumer et eteindre un NAS très régulièrement, ca c'est pas forcément une bonne idée... Les disques aiment pas beaucoup en général...
Dernière modification par Hoper (Le 30/09/2019, à 14:17)
Mes tutos et coups de gueule :
http://hoper.dnsalias.net/atdc/
Mastodon: @hoper@framapiaf.org
Hors ligne
#5 Le 30/09/2019, à 20:06
- Optarion
Re : [Résolu] volume dégradé RAID 5
Ah mince. Moi qui croyait que ce n'était rien...
Le Nas est un D410j et je n'avait que ces 3 disques.
Cela fait bien longtemps que je les ai installé en raid donc je ne mettrai pas ma main au feu que c'est du raid 5. Mais je me connaais et cela m'étonnerait si j'avais choisi autre chose.
Aucube idée de si le volule était marqué comme "redondant"
Merci encore pour ton aide
Hors ligne
#6 Le 01/10/2019, à 08:33
- Hoper
Re : [Résolu] volume dégradé RAID 5
C'est quoi que tu appelle "bien longtemps" ? Parce qu'en fonction de quand tu les a installé, le format du raid utilisé à pu changer
Et si on essaye de re-créer le raid avec le mauvais format, la il y a de gros risques qu'on casse des trucs...
En résumé, voila comment je vois les choses :
Pour une raison inconnue, les metadatas liées au raid ont étés détruites (Et je m'explique vraiment pas comment ça à pu arriver sur les 3 disques en même temps). Sans ces données, impossible de savoir quel type de raid était utilisé, quel format il avait etc. On ne peut faire que des suppositions.
Normalement pour assembler un raid existant il faut utiliser la commande "assemble", mais la, sans meta data, je pense qu'il faut le recréer (commande create). D'après ce que j'ai lu cela ne detruira pas forcément les données présentes... Mais il faudrait vraiment recréer un raid du même type. Bref, c'est un peu chaud la... Si il y a des données critiques dessus pour lesquels tu n'a absolument pas de sauvegarde et si tu es pret à payer cher pour les récupérer, c'est maintenant qu'il faut faire appel à des pros.
Dans le cas contraire, on peut toujours tenter un assemblage (quasiment certain que ça marchera pas mais bon) :
mdadm --verbose --assemble /dev/md0 /dev/sdb3 /dev/sdc3 /dev/sdd3
(L'étape suivante étant le create, ou la on risque de détruire des trucs...)
Dernière modification par Hoper (Le 02/10/2019, à 07:49)
Mes tutos et coups de gueule :
http://hoper.dnsalias.net/atdc/
Mastodon: @hoper@framapiaf.org
Hors ligne
#7 Le 02/10/2019, à 09:09
- Optarion
Re : [Résolu] volume dégradé RAID 5
"Bien longtemps" veut dire presque 10ans. Je viens de vérifier mes factures et j'ai acheté le NAS + les HDD en sept 2010!
Je vais prendre le temps de refaire toutes les manips que tu m'as demandé ce soir ou demain (sans doutes plutôt demain) et je te dis ce qu'il en est ensuite.
Dans tous les cas, les données n'étant pas critiques, je n'essayerai pas de récupérer les données par des pros. Mais évidement, je préfèrerai les récupérer quand même
Ne penses-tu pas que cela pourrait être un problème dû au type de RAID (SHR je crois) que créé ces NAS ?
Merci encore
Hors ligne
#8 Le 02/10/2019, à 14:16
- Hoper
Re : [Résolu] volume dégradé RAID 5
Ah oui 10 ans... Donc il y a effectivement un risque que le format de mdadm à l'époque par défaut n'était pas le 1.2 (il faudrait trouver l'info sur le net...)
Pour répondre à ta question, non, le problème ne peut pas venir du type de raid. "SHR" n'est qu'un nom. Une appellation commerciale de synology. Entre temps j'en ai acheter un pour une connaissance et j'ai eu le temps de pas mal jouer avec. Ce qu'ils appellent "SHR" n'est rien d'autre que du raid totalement standard, simplement ils font les choses bien. Par exemple même si tu n'a qu'un disque, il font un raid1 sur un seul membre. Cela permet ensuite d'étendre quand tu rajoute des disques etc.
Bref, "SHR" c'est juste une sorte de raid "intelligent" ou il choisit simplement le meilleur niveau de raid possible en fonction du nombre de disques (meme si tu n'en a qu'un). Mais en vrai dérière c'est du raid totalement standard, avec mdadm utilisé normalement.
EDIT : 10 ans... Il faudra aussi vérifier la santé des disques avec smartctl...
Dernière modification par Hoper (Le 02/10/2019, à 14:27)
Mes tutos et coups de gueule :
http://hoper.dnsalias.net/atdc/
Mastodon: @hoper@framapiaf.org
Hors ligne
#9 Le 02/10/2019, à 14:36
- geole
Re : [Résolu] volume dégradé RAID 5
Bonjour
A lire ce document avant de faire une commande create https://forum.ubuntu-fr.org/viewtopic.php?id=2042256
Donner l'état smartctl des trois disques serait un plus
Dernière modification par geole (Le 02/10/2019, à 14:43)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
En ligne
#10 Le 02/10/2019, à 21:53
- Optarion
Re : [Résolu] volume dégradé RAID 5
J'ai pu prendre quelques minutes pour brancher les dd un par un (jusque là je branchais les 3 en même temps) et refaire quelques manips, voici les résultats:
Disk 1
ubuntu@ubuntu:/home$ sudo mdadm --examine /dev/sdb3
mdadm: No md superblock detected on /dev/sdb3.
Même résultat avec les partitions /dev/sdb1 et /dev/sdb2
sudo smartctl -a /dev/sdb3
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-5.0.0-23-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Western Digital Caviar Blue (SATA)
Device Model: WDC WD5000AAKS-08V0A0
Serial Number: WD-WCAWF5998784
LU WWN Device Id: 5 0014ee 1582ef1ff
Firmware Version: 05.01D05
User Capacity: 500,107,862,016 bytes [500 GB]
Sector Size: 512 bytes logical/physical
Rotation Rate: 7200 rpm
Device is: In smartctl database [for details use: -P show]
ATA Version is: ATA8-ACS (minor revision not indicated)
SATA Version is: SATA 2.6, 3.0 Gb/s
Local Time is: Wed Oct 2 20:27:03 2019 UTC
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x82) Offline data collection activity
was completed without error.
Auto Offline Data Collection: Enabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: ( 8580) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 102) minutes.
Conveyance self-test routine
recommended polling time: ( 5) minutes.
SCT capabilities: (0x3037) SCT Status supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 0
3 Spin_Up_Time 0x0027 142 142 021 Pre-fail Always - 3866
4 Start_Stop_Count 0x0032 093 093 000 Old_age Always - 7407
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0
9 Power_On_Hours 0x0032 088 088 000 Old_age Always - 8962
10 Spin_Retry_Count 0x0032 100 100 000 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 996
192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 724
193 Load_Cycle_Count 0x0032 198 198 000 Old_age Always - 6682
194 Temperature_Celsius 0x0022 114 095 000 Old_age Always - 29
196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0030 200 200 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0
200 Multi_Zone_Error_Rate 0x0008 200 200 000 Old_age Offline - 0
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
No self-tests have been logged. [To run self-tests, use: smartctl -t]
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
Disk 2
Disk 1
ubuntu@ubuntu:/home$ sudo mdadm --examine /dev/sdb3
mdadm: No md superblock detected on /dev/sdb3.
Même résultat avec les partitions /dev/sdb1 et /dev/sdb2
sudo smartctl -a /dev/sdb3
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-5.0.0-23-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Western Digital Caviar Blue (SATA)
Device Model: WDC WD5000AAKS-08V0A0
Serial Number: WD-WCAWF5991929
LU WWN Device Id: 5 0014ee 1ad7dfd37
Firmware Version: 05.01D05
User Capacity: 500,107,862,016 bytes [500 GB]
Sector Size: 512 bytes logical/physical
Rotation Rate: 7200 rpm
Device is: In smartctl database [for details use: -P show]
ATA Version is: ATA8-ACS (minor revision not indicated)
SATA Version is: SATA 2.6, 3.0 Gb/s
Local Time is: Wed Oct 2 20:37:41 2019 UTC
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x82) Offline data collection activity
was completed without error.
Auto Offline Data Collection: Enabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: ( 7800) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 93) minutes.
Conveyance self-test routine
recommended polling time: ( 5) minutes.
SCT capabilities: (0x3037) SCT Status supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 0
3 Spin_Up_Time 0x0027 144 142 021 Pre-fail Always - 3783
4 Start_Stop_Count 0x0032 093 093 000 Old_age Always - 7415
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0
9 Power_On_Hours 0x0032 088 088 000 Old_age Always - 8957
10 Spin_Retry_Count 0x0032 100 100 000 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 099 099 000 Old_age Always - 1009
192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 735
193 Load_Cycle_Count 0x0032 198 198 000 Old_age Always - 6679
194 Temperature_Celsius 0x0022 118 093 000 Old_age Always - 25
196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0030 200 200 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0
200 Multi_Zone_Error_Rate 0x0008 200 200 000 Old_age Offline - 0
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
No self-tests have been logged. [To run self-tests, use: smartctl -t]
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
Disk 3
ubuntu@ubuntu:/home$ sudo mdadm --examine /dev/sdb3
mdadm: No md superblock detected on /dev/sdb3.
Même résultat avec les partitions /dev/sdb1 et /dev/sdb2
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-5.0.0-23-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Western Digital Caviar Blue (SATA)
Device Model: WDC WD5000AAKS-08V0A0
Serial Number: WD-WCAWF5994329
LU WWN Device Id: 5 0014ee 102d9e4b2
Firmware Version: 05.01D05
User Capacity: 500,107,862,016 bytes [500 GB]
Sector Size: 512 bytes logical/physical
Rotation Rate: 7200 rpm
Device is: In smartctl database [for details use: -P show]
ATA Version is: ATA8-ACS (minor revision not indicated)
SATA Version is: SATA 2.6, 3.0 Gb/s
Local Time is: Wed Oct 2 20:42:30 2019 UTC
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x82) Offline data collection activity
was completed without error.
Auto Offline Data Collection: Enabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: ( 8400) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 100) minutes.
Conveyance self-test routine
recommended polling time: ( 5) minutes.
SCT capabilities: (0x3037) SCT Status supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 0
3 Spin_Up_Time 0x0027 140 139 021 Pre-fail Always - 3958
4 Start_Stop_Count 0x0032 093 093 000 Old_age Always - 7415
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0
9 Power_On_Hours 0x0032 088 088 000 Old_age Always - 8932
10 Spin_Retry_Count 0x0032 100 100 000 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 099 099 000 Old_age Always - 1009
192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 735
193 Load_Cycle_Count 0x0032 198 198 000 Old_age Always - 6679
194 Temperature_Celsius 0x0022 118 094 000 Old_age Always - 25
196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0030 200 200 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0
200 Multi_Zone_Error_Rate 0x0008 200 200 000 Old_age Offline - 0
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
No self-tests have been logged. [To run self-tests, use: smartctl -t]
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
Maintenant, je vous laisse tirer des conclusions parceque moi, je suis perdu
Hors ligne
#11 Le 03/10/2019, à 08:27
- Hoper
Re : [Résolu] volume dégradé RAID 5
La conclusion c'est que ces 3 disques semblent en parfait état. Et ils ne sont pas si vieux que ça... je dirais environ 3 ans. (à un an près). Ils ont en effet tous tourner moins de 9000 heures, ce qui fait à peine plus d'un an si ils étaient resté allumés 24/24. Mais vu le nombre de d’arrêt/relance électrique, il est clair que tu les éteint effectivement toutes les nuits.
Ce qui est sur, c'est que ce raid n'a donc pas 10 ans... Tu confirme ?
Tu as essayé le mdadm --assemble ? Sur que ça marche pas, mais au moins il n'y a aucun risque a essayer. Alors que la suite logique c'est le --create. Et la oui, on risque d'abimer des trucs... Mais je vois pas du tout comment on pourrait faire autrement.
Je vais regarder si, en format 1.2, il n'y aurait pas des copies des meta data du raid quelque part
Mes tutos et coups de gueule :
http://hoper.dnsalias.net/atdc/
Mastodon: @hoper@framapiaf.org
Hors ligne
#12 Le 03/10/2019, à 08:43
- Optarion
Re : [Résolu] volume dégradé RAID 5
Je maintiens que les 3 disques datent de sept 2019. Je n'ai retrouvé aucune facture plus récente pour ce matériel et je n'en achète que très rarement.
le nombre d'heures ne m'étonne pas plus que ça, cela fait 125 jours d'allumage / an. Etant donné mon usage, cela est un ordre de grandeur vraissemblable.
J'essaye le mdadm --assemble ce soir. Tu me confirmes que je vérifie le nom des partitions fais un:
mdadm --assemble /dev/sd[bcd]3
A noter, j'ai oublié de le dire, que les disques ont pleins de partitions /sdb1, /sdb2, /sdb3... je croyais avoir envoyé des captures d'écrans de ce que je vois dans l'app Disk mais visiblement j'ai oublié. JE fais ça ce soir
Hors ligne
#13 Le 03/10/2019, à 12:37
- Hoper
Re : [Résolu] volume dégradé RAID 5
Pour la commande, il ne faut pas oublier le device:
mdadm --verbose --assemble /dev/md0 /dev/sdb3 /dev/sdc3 /dev/sdd3
Mes tutos et coups de gueule :
http://hoper.dnsalias.net/atdc/
Mastodon: @hoper@framapiaf.org
Hors ligne
#14 Le 03/10/2019, à 19:22
- Optarion
Re : [Résolu] volume dégradé RAID 5
ubuntu@ubuntu:~$ sudo mdadm --verbose --assemble /dev/md0 /dev/sdb3 /dev/sdc3 /dev/sdd3
mdadm: looking for devices for /dev/md0
mdadm: no recogniseable superblock on /dev/sdb3
mdadm: /dev/sdb3 has no superblock - assembly aborted
concernant les partitions sur les disques, voici ce que je vois via l'app Disk (identique pour chaque disk)
Dernière modification par Optarion (Le 03/10/2019, à 19:23)
Hors ligne
#15 Le 04/10/2019, à 08:50
- Hoper
Re : [Résolu] volume dégradé RAID 5
Ok, merci pour la capture d'écran. Mais la en fait ce qu'il te montre c'est le type de la partition. Tu aurai le même résultat en faisant simplement un "fdisk -l".
Donc bein voila, tout ce qu'on fait montre la même chose. Il n'y a plus les metadata du raid... Sans ces metadata, on ne peux qu'essayer un peu au hasard de trouver quel format ton raid utilisait:
https://raid.wiki.kernel.org/index.php/ … ck_formats
Mais forcément si on essaye de re-créer un raid avec le mauvais format, on risque très fort d'écraser une partie des données que tes disques contiennent. Ce thread est assez intéressant à lire par exemple :
https://unix.stackexchange.com/question … superblock
Si j'étais une grosse grosse brute en informatique, et si j'avais BEAUCOUP de temps devant moi, alors je partirai à la recherche de fragment de meta-data sur le disque pour essayer de trouver quel format il utilisait. Mais je ne suis pas une grosse brute et je n'ai pas autant de temps. A ta place, je ferai donc la chose suivante :
Je tenterai de recréer des raid de différent format, en priant pour qu'a un moment on arrive à retrouver la trace d'un système de fichier (qui sera corrompu et qu'il faudra réparer à coup de fsck). Le tout en priant aussi pour que les valeurs par défaut des caractéristiques des raid n'aient pas changé (c'est le problème avec les trucs faciles à utiliser, ça fait tous les choix à ta place... Du coup tu n'a aucune idée des valeurs utilisés par ton raid pour la taille des chunk, le type de parité etc). Si tu avait du choisir tout ça toi même en ligne de commande, tu aurai pu le noter dans un coin et on aurait eu toutes les infos
Comme tu peut le lire sur la page wikipedia, les formats qui étaient utilisé avant (0.9 et 1.0) mettaient les metadata à la fin du disque. C'est donc par ces versions la (en particulier la 0.9) que je commencerai. C'est plausible si le NAS à 10 ans. Et il y a moins de risque de détruire des données (il est beaucoup moins probable d'avoir des données utilisateurs sur les tout derniers bloques du disques plutôt que sur les premiers).
Pour ces raisons, je ferai ça:
mdadm --create /dev/md0 --metadata=0.90 --level=5 --raid-devices=3 /dev/sdb3 /dev/sdc3 /dev/sdd3
Soit ça fonctionne, soit on aura un peu empiré les choses... Mais vu les circonstances je vois pas trop ce qu'on peut faire d'autre...
Une fois md0 crée, il faut regardé si il trouve quelque chose dedans:
dumpe2fs /dev/md0
Mes tutos et coups de gueule :
http://hoper.dnsalias.net/atdc/
Mastodon: @hoper@framapiaf.org
Hors ligne
#16 Le 04/10/2019, à 23:08
- geole
Re : [Résolu] volume dégradé RAID 5
Bonjour,
Suite à une erreur de mise à jour mon synology me déclare mon volume comme dégradé.
Le raid était en SHR et volume Btrfs.Périphérique Start Fin Secteurs Size Type /dev/sdb1 2048 4982527 4980480 2,4G RAID Linux /dev/sdb2 4982528 9176831 4194304 2G RAID Linux /dev/sdb3 9437184 7813766815 7804329632 3,6T RAID Linux
3,7T sdb 2,4G ├─sdb1 linux_raid_member 2G ├─sdb2 linux_raid_member 3,6T └─sdb3 linux_raid_member HPG8:2
Tout est là maintenant je ne sais pas quoi faire pour me dépatouiller de tout ça.
Une petite aide serait la bienvenue.
Bonsoir
Avant de traiter les grosses partitions de 3,6 To, Tu devrais tenter de remettre en état les partitions de 2,4 Go et 2 Go car c'est probablement le même problème.
Vu la volumétrie de ces partitions, tu peux les sauver avant de commencer à bricoler.
En ligne de commande cela devrait être possible par
sudo dd if=/dev/sdb1 of=$HOME/sdb1.img bs=1M status=progress
sudo dd if=/dev/sdc1 of=$HOME/sdc1.img bs=1M status=progress
sudo dd if=/dev/sdd1 of=$HOME/sdd1.img bs=1M status=progress
sudo dd if=/dev/sdb2 of=$HOME/sdb2.img bs=1M status=progress
sudo dd if=/dev/sdc2 of=$HOME/sdc2.img bs=1M status=progress
sudo dd if=/dev/sdd2 of=$HOME/sdd2.img bs=1M status=progress
Si la commande de mdadm fait n'importe quoi, il suffira de faire faire la copie inverse afin d'en essayer une autre.
Je duplique la proposition de Hoper
sudo mdadm --create /dev/md1 --assume-clean --metadata=0.90 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1
sudo mdadm --create /dev/md2 --assume-clean --metadata=0.90 --level=5 --raid-devices=3 /dev/sdb2 /dev/sdc2 /dev/sdd2
https://raid.wiki.kernel.org/index.php/ … ck_formats indique d'il y aurait 4 choix possibles
Sub-Version Superblock Position on Device
0.9 At the end of the device
1.0 At the end of the device
1.1 At the beginning of the device
1.2 4K from the beginning of the device
sudo mdadm --examine /dev/sdb1
sudo mdadm --examine /dev/sdc1
sudo mdadm --examine /dev/sdd1
sudo mdadm --examine /dev/sdb2
sudo mdadm --examine /dev/sdc2
sudo mdadm --examine /dev/sdd2
Modification pour mettre l'option --assume-clean permettant de conserver le contenu existant ...
Dernière modification par geole (Le 07/10/2019, à 18:01)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
En ligne
#17 Le 06/10/2019, à 19:51
- Optarion
Re : [Résolu] volume dégradé RAID 5
hello geole
Merci pour ta réponse.
Mais en fait, je me suis complètement accaparé le post initial de skilk pour parler de mon problème qui était (sur le papier) très similaire.
Donc je n'ai pas exactement la même problématique que lui, notamment en ce qui concerne le volume de données.
Penses tu qu'il pourrait être utile que je tente les --examine sur les partitions 1 et 2 comme tu le suggères?
Etant donné que rien ne me presse (à part l'envie de boucler le sujet) je préfèrerai tout tenter avant de passer à un --create à l'aveuglette comme propose hoper.
Sinon, en essayant de trouver le type de superblock qui pourrait avoir été utilisé pour mon RAID, je suis tombé sur ce lien: https://ubuntuforums.org/showthread.php?t=1947275
Le problème est assez semblable au mien, pensez-vous que cela pourrait être tenté?
Concernant le type de superblock, j'ai trouvé un post de forum pour un problème de raid synology datant de janv 2011 où la version était 1.1 et un autre datant de 2013 où cela semblait déjà être du 1.2. Tous les articles plus récents que j'ai trouvé traitaient de 1.2.
Dernière modification par Optarion (Le 06/10/2019, à 20:29)
Hors ligne
#18 Le 06/10/2019, à 21:10
- rmy
Re : [Résolu] volume dégradé RAID 5
hello geole
Merci pour ta réponse.
Mais en fait, je me suis complètement accaparé le post initial de skilk pour parler de mon problème qui était (sur le papier) très similaire.
Donc je n'ai pas exactement la même problématique que lui, notamment en ce qui concerne le volume de données.Penses tu qu'il pourrait être utile que je tente les --examine sur les partitions 1 et 2 comme tu le suggères?
Etant donné que rien ne me presse (à part l'envie de boucler le sujet) je préfèrerai tout tenter avant de passer à un --create à l'aveuglette comme propose hoper.Sinon, en essayant de trouver le type de superblock qui pourrait avoir été utilisé pour mon RAID, je suis tombé sur ce lien: https://ubuntuforums.org/showthread.php?t=1947275
Le problème est assez semblable au mien, pensez-vous que cela pourrait être tenté?Concernant le type de superblock, j'ai trouvé un post de forum pour un problème de raid synology datant de janv 2011 où la version était 1.1 et un autre datant de 2013 où cela semblait déjà être du 1.2. Tous les articles plus récents que j'ai trouvé traitaient de 1.2.
Je déconseille fortement le --create, et si il n'y a pas 'autre solution, y ajouter au moins un --assume-clean pour ne pas risquer de reconstruction.
Je ne vais pas êtr très dispo sur le forum ces prochains jours, mais à minima je conseille de commencer :
- par un clone de chacun des disques avec ddrescue vers un/des supports sains (ça coute pas très cher un disque dur aujourd'hui)
- une recherche avec testdisk pour retrouver éventuellement l'emplacement des volumes raid et leur méta, et ensuite créer des loopdevice pour un assemblage.
En tout cas, un --create ne conserve pas l'état initial et c'est plutôt grave, en RDD…
récupération de données: vrac–topic unique–mon site pro pour les particuliers : www.diskcard.fr– Je recycle volontiers tous vos disques durs HS (ou pas).
Le site pro pour les pros, spécialiste recupération de données RAID, NAS et serveurs: www.vodata.fr
Hors ligne
#19 Le 06/10/2019, à 22:14
- geole
Re : [Résolu] volume dégradé RAID 5
......
concernant les partitions sur les disques, voici ce que je vois via l'app Disk (identique pour chaque disk)
https://ibb.co/JxBTP9n
Cela nous avait échappé. Dans la copie que tu as fourni, on voit la version RAIDS utilisée pour la partition 3
Peux-tu regarder pour les partitions 1 et 2 afin de savoir si c'est aussi la même version: C'est à dire (VERSION 0.90.0) et si c'est aussi le même type de partition ? ( Linux RAID AUTO)
NOTA: Dans mon contexte, il est écrit " Contenu EXT4 (version 1.0) non-monté"
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
En ligne
#20 Le 07/10/2019, à 07:39
- geole
Re : [Résolu] volume dégradé RAID 5
J'ai pu prendre quelques minutes pour brancher les dd un par un (jusque là je branchais les 3 en même temps)
Maintenant, je vous laisse tirer des conclusions parceque moi, je suis perdu
Bonjour
Je ne comprends pas pourquoi tu décides de les brancher un par un.
Rebranche les trois disques ensemble et donne le retour de cette commande
sudo lsblk -o size,name,fstype,label,mountpoint
D'autre part comme tes trois disques sont en excellant état, il n'est peut-être pas nécessaire d'acheter trois nouveaux disques pour duplication. La commande testdisk devrait pouvoir se lancer sur les disques eux-mêmes. mais je ne sais pas ce qu'il faut chercher
TestDisk 7.0, Data Recovery Utility, April 2015
Christophe GRENIER <grenier@cgsecurity.org>
http://www.cgsecurity.org
Disk /dev/sdb - 500 GB / 465 GiB - CHS 60801 255 63
Partition Start End Size in sectors
> 1 P Linux 0 32 33 60801 15 14 976766976 [RAID0-A]
[ Type ] >[Superblock] [ List ] [Image Creation] [ Quit ]
Locate ext2/ext3/ext4 backup superblock
TestDisk 7.0, Data Recovery Utility, April 2015
Christophe GRENIER <grenier@cgsecurity.org>
http://www.cgsecurity.org
Disk /dev/sdb - 500 GB / 465 GiB - CHS 60801 255 63
Partition Start End Size in sectors
> Linux 0 32 33 60801 15 14 976766976 [RAID0-A]
superblock 0, blocksize=4096 [RAID0-A]
Next
>[ Quit ]
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
En ligne
#21 Le 07/10/2019, à 07:53
- rmy
Re : [Résolu] volume dégradé RAID 5
geole :
La duplication est IMPÉRATIVE pour conservation de l'état initial si on veut pouvoir tenter des --create. Et puis vu le prix des disques, ça permettra par la suite de créer un autre RAID pour organiser un VRAI Backup ;-)
Avec testdisk, en utilisant "none" pour table de partition et en laissant la recherche se faire jusqu'à la fin (puisque les méta 0.9 sont en fin de partition) on devrait retrouver les partitions RAID si les méta existent encore. C'est l'hypothèse d'un problème ou le NAS pour une raison inconnue aurait modifié la partition, ça permet de retrouver celle avec les méta, de faire un loopdevice, puis un --assemble… plutôt que de passer par du --create.
Concernant ton appel à jamesbad000, encore une fois n'allez pas trop vite en besogne avec les --create. En l'occurence ici, il n'est pas du tout souhaitable de créer un raid avec des méta 1.2 là où il y avait du 0.9 avant, je ne sais pas ce que fait le script exactement. De toutes façons pas du tout souhaitable de risquer d'écraser des méta mdadm qui existent peut-être encore, même si pour l'instant les --examine restent muets.
Je vais essayer de suivre un peu ce post malgré ma faible disponibilité prochaine.
récupération de données: vrac–topic unique–mon site pro pour les particuliers : www.diskcard.fr– Je recycle volontiers tous vos disques durs HS (ou pas).
Le site pro pour les pros, spécialiste recupération de données RAID, NAS et serveurs: www.vodata.fr
Hors ligne
#22 Le 07/10/2019, à 08:35
- Hoper
Re : [Résolu] volume dégradé RAID 5
Merci beaucoup rmy. J'ai fait deux grosses erreurs dans ce thread. Le --create sans le assume-clean, et je viens aussi de réaliser le dumpe2fs alors qu'on est en brtfs.
Bref, pas évident le dépannage à distance quand c'est pas son matériel dont on connais bien la conf etc. Du coup je pense qu'avant de dire plus de bêtises je vais m’arrêter la
Par curiosité, 3 disques qui perdent leur metadata... Une idée de ce qui à pu provoquer ça ? C'est forcément un bug logiciel qui à demandé d'écrire au mauvais endroit la...
Mes tutos et coups de gueule :
http://hoper.dnsalias.net/atdc/
Mastodon: @hoper@framapiaf.org
Hors ligne
#23 Le 07/10/2019, à 09:48
- rmy
Re : [Résolu] volume dégradé RAID 5
Par curiosité, 3 disques qui perdent leur metadata... Une idée de ce qui à pu provoquer ça ? C'est forcément un bug logiciel qui à demandé d'écrire au mauvais endroit la...
J'ai trop peu d'éléments pour répondre avec certitude mais dans le cas d'un NAS j'ai toujours tendance à priviliégier une MàJ firmware automatique qui a foutu le bazar, et potentiellement écrit de nouvelles partitions mais sans finir le job…
récupération de données: vrac–topic unique–mon site pro pour les particuliers : www.diskcard.fr– Je recycle volontiers tous vos disques durs HS (ou pas).
Le site pro pour les pros, spécialiste recupération de données RAID, NAS et serveurs: www.vodata.fr
Hors ligne
#24 Le 07/10/2019, à 20:04
- jamesbad000
Re : [Résolu] volume dégradé RAID 5
Bonsoir,
Je note pas mal de confusion, et je subodore des changement de devices
car au début, il y a bien des métadonnée raid sur sdb3
3,6T └─sdb3 linux_raid_member HPG8:2
et ensuite il n'y en aurait plus
ubuntu@ubuntu:/home$ sudo mdadm --examine /dev/sdb3
mdadm: No md superblock detected on /dev/sdb3.
Ci-dessus concerne le sujet initial et rien à voir donc...
Par ailleurs
concernant les commandes mdadm --examine /dev/sdb3, je l'ai tnté sur toutes les partitions et j'ai toujours la réponse '... is not an md array'.
mdadm --examine ne retourne pas ce message d'erreur 'is not an md array' (et pour cause l'argument n'est pas un volume raid, mais un composant de la grappe !) Mais le message "No md superblock detected..." comme on le voit un peu plus haut.
Si bien qu'il y a encore espoir qu'en fin de compte tout soit bien à sa place.
Je suggère donc de reposer tout sur la table de façon rigoureuse (pas de description des réponses des commandes, mais la commande et la réponse copiée collée depuis le terminal).
Pour commencer on procède à l'identification des noms de devices persistants:
sudo lsblk -o size,name,fstype,label,mountpoint
ls -l /dev/disk/by-id
Dernière modification par jamesbad000 (Le 08/10/2019, à 19:43)
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#25 Le 08/10/2019, à 00:13
- rmy
Re : [Résolu] volume dégradé RAID 5
Bien vu jamesbad000 :-)
D'autant que si il y a eu des disques avec méta branchés puis retirés, il y a pu avoir création d'un dev RAID et ensuite décallage des lettres de devices au rebranchement si le md n'a pas été supprimé entre temps !
La piste me semble bonne.
récupération de données: vrac–topic unique–mon site pro pour les particuliers : www.diskcard.fr– Je recycle volontiers tous vos disques durs HS (ou pas).
Le site pro pour les pros, spécialiste recupération de données RAID, NAS et serveurs: www.vodata.fr
Hors ligne