Contenu | Rechercher | Menus

Annonce

Ubuntu-fr vend de superbes t-shirts et de belles clés USB 32Go
Rendez-vous sur la boutique En Vente Libre

Si vous avez des soucis pour rester connecté, déconnectez-vous puis reconnectez-vous depuis ce lien en cochant la case
Me connecter automatiquement lors de mes prochaines visites.

À propos de l'équipe du forum.

#1 Le 29/09/2019, à 22:14

Optarion

[Résolu] volume dégradé RAID 5

Bonjour,

Je suis dans la meme situation skilk. J'ai 3 DD en raid 5 et mon nas m'indique qu'un volume est degrade.

J'ai suivis la procedure https://www.synology.com/en-us/knowledg … using_a_PC pour recuperer mes donnees en branchant les DDs dans mon pc et en bootant sur un ubuntu mais malheureusement quand je fais le

mdadm -Asf && vgchange -ay

, je tombe sur un 'mdadm: No arrays found in config file or automatically'

Du coup, j'ai continue mes recherches et l'article que tu donnes @hoper.
J'ai fait un

mdadm --examine /dev/sdb1

(mes dds sont sdb, sdc et sdd) et j'ai a chaque fois j'ai l'output 'is not an md array'. Si je tente un

mdadm --examine /dev/sdb

(sans le num de partition) j'ai:

MBR Magic : aa55
Partition[0] :      4980087 sectors at           63 (type fd)
Partition[1] :      1044225 sectors at      4980150 (type fd)
Partition[2] :    970486650 sectors at      6281415 (type fd)

J'imagine que le probleme vient du fait que synology a un RAID custom (SHR). Mais vu que je suis totalement novice et que tu parlais de cet article peut etre auras-tu une idee.

A noter que les disques sont biens visibles avec un fdisk -l. l'application 'Disk', en faisant un bklid (ex: /dev/sdb3: UUID="f370ed9e-8bc8-70e9-e280-e5f200e9935e" TYPE="linux_raid_member" PARTUUID="a445f661-03") et ont les memes UUID (je ne sais pas si c'est une bonne chose)

Merci d'avance si vous avez des idees

Dernière modification par Optarion (Le 12/10/2019, à 22:36)

Hors ligne

#2 Le 30/09/2019, à 09:49

Hoper

Re : [Résolu] volume dégradé RAID 5

Bonjour,

A mon avis tu n'a pas indiqué le bon numéro de partition. D'après ce que je lis, ce serait plutôt la troisième qui serait intéressante. Que donne :

mdadm --examine /dev/sdb3
mdadm --examine /dev/sdc3
mdadm --examine /dev/sdd3

EDIT: Si tu peux aussi m'en dire un peu plus sur ce qui s'est passé... (entre le moment ou ça fonctionnait et maintenant)

Dernière modification par Hoper (Le 30/09/2019, à 09:59)


Mes tutos et coups de gueule :
http://hoper.dnsalias.net/atdc/
Mastodon: @hoper@framapiaf.org

Hors ligne

#3 Le 30/09/2019, à 14:14

Optarion

Re : [Résolu] volume dégradé RAID 5

A vrai dire, il ne s'est pas passé grand chose.
J'utilise ce Nas pour de la synchronisation et du backup (je sais c'est mal) et je l'éteint tous les jours parce que je n'allume pas mon pc tous les jours.
Un jour, au démarrage, des bips réguliers se font entendre et je reçois un email du diskstation disant "le volume 1 est dégradé".

Comme je n'y connais pas grand chose en NAS/RAID, j'ai demandé de l'aide sur le forum synology et on m'a orienté vers le lien "how to recover your data using a pc" et tu connais la suite.

concernant les commandes mdadm --examine /dev/sdb3, je l'ai tnté sur toutes les partitions et j'ai toujours la réponse  '... is not an md array'.

Merci pour ton aide !

Hors ligne

#4 Le 30/09/2019, à 15:15

Hoper

Re : [Résolu] volume dégradé RAID 5

Ouch... Je pensai vraiment que c'était juste un problème de numéro de partition... Mais la ça semble beaucoup plus grave que prévu. Mais du coup, j'avoue que je comprend pas trop... Un disque qui à un soucis, c'est fréquent.. Mais les 3 en même temps ? Impossible...  Le problème vient d'ailleurs.

Tu n'avais que 3 disques dans le NAS ? Quel modèle de NAS c'était ? Le volume était bien "redondant" (en gros c'était bien du raid 5 ? Il te disait pas que c'était un raid sans aucune sécurité ?)

PS : Juste pour info : Faire des backups c'est super bien (ça veut dire que les données ne sont pas perdus et que tu les a ailleurs). Par contre, allumer et eteindre un NAS très régulièrement, ca c'est pas forcément une bonne idée... Les disques aiment pas beaucoup en général...

Dernière modification par Hoper (Le 30/09/2019, à 15:17)


Mes tutos et coups de gueule :
http://hoper.dnsalias.net/atdc/
Mastodon: @hoper@framapiaf.org

Hors ligne

#5 Le 30/09/2019, à 21:06

Optarion

Re : [Résolu] volume dégradé RAID 5

Ah mince. Moi qui croyait que ce n'était rien...

Le Nas est un D410j et je n'avait que ces 3 disques.

Cela fait bien longtemps que je les ai installé en raid donc je ne mettrai pas ma main au feu que c'est du raid 5. Mais je me connaais et cela m'étonnerait si j'avais choisi autre chose.
Aucube idée de si le volule était marqué comme "redondant"

Merci encore pour ton aide

Hors ligne

#6 Le 01/10/2019, à 09:33

Hoper

Re : [Résolu] volume dégradé RAID 5

C'est quoi que tu appelle "bien longtemps" ? Parce qu'en fonction de quand tu les a installé, le format du raid utilisé à pu changer sad 
Et si on essaye de re-créer le raid avec le mauvais format, la il y a de gros risques qu'on casse des trucs...

En résumé, voila comment je vois les choses :

Pour une raison inconnue, les metadatas liées au raid ont étés détruites (Et je m'explique vraiment pas comment ça à pu arriver sur les 3 disques en même temps). Sans ces données, impossible de savoir quel type de raid était utilisé, quel format il avait etc. On ne peut faire que des suppositions.

Normalement pour assembler un raid existant il faut utiliser la commande "assemble", mais la, sans meta data, je pense qu'il faut le recréer (commande create). D'après ce que j'ai lu cela ne detruira pas forcément les données présentes... Mais il faudrait vraiment recréer un raid du même type. Bref, c'est un peu chaud la...  Si il y a des données critiques dessus pour lesquels tu n'a absolument pas de sauvegarde et si tu es pret à payer cher pour les récupérer, c'est maintenant qu'il faut faire appel à des pros.

Dans le cas contraire, on peut toujours tenter un assemblage (quasiment certain que ça marchera pas mais bon) :

mdadm --verbose --assemble /dev/md0 /dev/sdb3 /dev/sdc3 /dev/sdd3

(L'étape suivante étant le create, ou la on risque de détruire des trucs...)

Dernière modification par Hoper (Le 02/10/2019, à 08:49)


Mes tutos et coups de gueule :
http://hoper.dnsalias.net/atdc/
Mastodon: @hoper@framapiaf.org

Hors ligne

#7 Le 02/10/2019, à 10:09

Optarion

Re : [Résolu] volume dégradé RAID 5

"Bien longtemps" veut dire presque 10ans. Je viens de vérifier mes factures et j'ai acheté le NAS + les HDD en sept 2010!

Je vais prendre le temps de refaire toutes les manips que tu m'as demandé ce soir ou demain (sans doutes plutôt demain) et je te dis ce qu'il en est ensuite.
Dans tous les cas, les données n'étant pas critiques, je n'essayerai pas de récupérer les données par des pros. Mais évidement, je préfèrerai les récupérer quand même smile

Ne penses-tu pas que cela pourrait être un problème dû au type de RAID (SHR je crois) que créé ces NAS ?

Merci encore

Hors ligne

#8 Le 02/10/2019, à 15:16

Hoper

Re : [Résolu] volume dégradé RAID 5

Ah oui 10 ans... Donc il y a effectivement un risque que le format de mdadm à l'époque par défaut n'était pas le 1.2 (il faudrait trouver l'info sur le net...)

Pour répondre à ta question, non, le problème ne peut pas venir du type de raid. "SHR" n'est qu'un nom. Une appellation commerciale de synology. Entre temps j'en ai acheter un pour une connaissance et j'ai eu le temps de pas mal jouer avec. Ce qu'ils appellent "SHR" n'est rien d'autre que du raid totalement standard, simplement ils font les choses bien. Par exemple même si tu n'a qu'un disque, il font un raid1 sur un seul membre. Cela permet ensuite d'étendre quand tu rajoute des disques etc.

Bref, "SHR" c'est juste une sorte de raid "intelligent" ou il choisit simplement le meilleur niveau de raid possible en fonction du nombre de disques (meme si tu n'en a qu'un). Mais en vrai dérière c'est du raid totalement standard, avec mdadm utilisé normalement.

EDIT : 10 ans... Il faudra aussi vérifier la santé des disques avec smartctl...

Dernière modification par Hoper (Le 02/10/2019, à 15:27)


Mes tutos et coups de gueule :
http://hoper.dnsalias.net/atdc/
Mastodon: @hoper@framapiaf.org

Hors ligne

#9 Le 02/10/2019, à 15:36

geole

Re : [Résolu] volume dégradé RAID 5

Bonjour
A lire ce document avant de faire une commande create  https://forum.ubuntu-fr.org/viewtopic.php?id=2042256

Donner l'état smartctl des trois disques serait un plus

Dernière modification par geole (Le 02/10/2019, à 15:43)

Hors ligne

#10 Le 02/10/2019, à 22:53

Optarion

Re : [Résolu] volume dégradé RAID 5

J'ai pu prendre quelques minutes pour brancher les dd un par un (jusque là je branchais les 3 en même temps) et refaire quelques manips, voici les résultats:

Disk 1

ubuntu@ubuntu:/home$ sudo mdadm --examine /dev/sdb3
mdadm: No md superblock detected on /dev/sdb3.

Même résultat avec les partitions /dev/sdb1 et /dev/sdb2

sudo smartctl -a /dev/sdb3
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-5.0.0-23-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Caviar Blue (SATA)
Device Model:     WDC WD5000AAKS-08V0A0
Serial Number:    WD-WCAWF5998784
LU WWN Device Id: 5 0014ee 1582ef1ff
Firmware Version: 05.01D05
User Capacity:    500,107,862,016 bytes [500 GB]
Sector Size:      512 bytes logical/physical
Rotation Rate:    7200 rpm
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ATA8-ACS (minor revision not indicated)
SATA Version is:  SATA 2.6, 3.0 Gb/s
Local Time is:    Wed Oct  2 20:27:03 2019 UTC
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x82)	Offline data collection activity
					was completed without error.
					Auto Offline Data Collection: Enabled.
Self-test execution status:      (   0)	The previous self-test routine completed
					without error or no self-test has ever 
					been run.
Total time to complete Offline 
data collection: 		( 8580) seconds.
Offline data collection
capabilities: 			 (0x7b) SMART execute Offline immediate.
					Auto Offline data collection on/off support.
					Suspend Offline collection upon new
					command.
					Offline surface scan supported.
					Self-test supported.
					Conveyance Self-test supported.
					Selective Self-test supported.
SMART capabilities:            (0x0003)	Saves SMART data before entering
					power-saving mode.
					Supports SMART auto save timer.
Error logging capability:        (0x01)	Error logging supported.
					General Purpose Logging supported.
Short self-test routine 
recommended polling time: 	 (   2) minutes.
Extended self-test routine
recommended polling time: 	 ( 102) minutes.
Conveyance self-test routine
recommended polling time: 	 (   5) minutes.
SCT capabilities: 	       (0x3037)	SCT Status supported.
					SCT Feature Control supported.
					SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0027   142   142   021    Pre-fail  Always       -       3866
  4 Start_Stop_Count        0x0032   093   093   000    Old_age   Always       -       7407
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   088   088   000    Old_age   Always       -       8962
 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       996
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       724
193 Load_Cycle_Count        0x0032   198   198   000    Old_age   Always       -       6682
194 Temperature_Celsius     0x0022   114   095   000    Old_age   Always       -       29
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   200   200   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       0

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

Disk 2

Disk 1

ubuntu@ubuntu:/home$ sudo mdadm --examine /dev/sdb3
mdadm: No md superblock detected on /dev/sdb3.

Même résultat avec les partitions /dev/sdb1 et /dev/sdb2

sudo smartctl -a /dev/sdb3
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-5.0.0-23-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Caviar Blue (SATA)
Device Model:     WDC WD5000AAKS-08V0A0
Serial Number:    WD-WCAWF5991929
LU WWN Device Id: 5 0014ee 1ad7dfd37
Firmware Version: 05.01D05
User Capacity:    500,107,862,016 bytes [500 GB]
Sector Size:      512 bytes logical/physical
Rotation Rate:    7200 rpm
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ATA8-ACS (minor revision not indicated)
SATA Version is:  SATA 2.6, 3.0 Gb/s
Local Time is:    Wed Oct  2 20:37:41 2019 UTC
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x82)	Offline data collection activity
					was completed without error.
					Auto Offline Data Collection: Enabled.
Self-test execution status:      (   0)	The previous self-test routine completed
					without error or no self-test has ever 
					been run.
Total time to complete Offline 
data collection: 		( 7800) seconds.
Offline data collection
capabilities: 			 (0x7b) SMART execute Offline immediate.
					Auto Offline data collection on/off support.
					Suspend Offline collection upon new
					command.
					Offline surface scan supported.
					Self-test supported.
					Conveyance Self-test supported.
					Selective Self-test supported.
SMART capabilities:            (0x0003)	Saves SMART data before entering
					power-saving mode.
					Supports SMART auto save timer.
Error logging capability:        (0x01)	Error logging supported.
					General Purpose Logging supported.
Short self-test routine 
recommended polling time: 	 (   2) minutes.
Extended self-test routine
recommended polling time: 	 (  93) minutes.
Conveyance self-test routine
recommended polling time: 	 (   5) minutes.
SCT capabilities: 	       (0x3037)	SCT Status supported.
					SCT Feature Control supported.
					SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0027   144   142   021    Pre-fail  Always       -       3783
  4 Start_Stop_Count        0x0032   093   093   000    Old_age   Always       -       7415
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   088   088   000    Old_age   Always       -       8957
 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   099   099   000    Old_age   Always       -       1009
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       735
193 Load_Cycle_Count        0x0032   198   198   000    Old_age   Always       -       6679
194 Temperature_Celsius     0x0022   118   093   000    Old_age   Always       -       25
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   200   200   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       0

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

Disk 3

ubuntu@ubuntu:/home$ sudo mdadm --examine /dev/sdb3
mdadm: No md superblock detected on /dev/sdb3.

Même résultat avec les partitions /dev/sdb1 et /dev/sdb2

smartctl 6.6 2016-05-31 r4324 [x86_64-linux-5.0.0-23-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Caviar Blue (SATA)
Device Model:     WDC WD5000AAKS-08V0A0
Serial Number:    WD-WCAWF5994329
LU WWN Device Id: 5 0014ee 102d9e4b2
Firmware Version: 05.01D05
User Capacity:    500,107,862,016 bytes [500 GB]
Sector Size:      512 bytes logical/physical
Rotation Rate:    7200 rpm
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ATA8-ACS (minor revision not indicated)
SATA Version is:  SATA 2.6, 3.0 Gb/s
Local Time is:    Wed Oct  2 20:42:30 2019 UTC
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x82)	Offline data collection activity
					was completed without error.
					Auto Offline Data Collection: Enabled.
Self-test execution status:      (   0)	The previous self-test routine completed
					without error or no self-test has ever 
					been run.
Total time to complete Offline 
data collection: 		( 8400) seconds.
Offline data collection
capabilities: 			 (0x7b) SMART execute Offline immediate.
					Auto Offline data collection on/off support.
					Suspend Offline collection upon new
					command.
					Offline surface scan supported.
					Self-test supported.
					Conveyance Self-test supported.
					Selective Self-test supported.
SMART capabilities:            (0x0003)	Saves SMART data before entering
					power-saving mode.
					Supports SMART auto save timer.
Error logging capability:        (0x01)	Error logging supported.
					General Purpose Logging supported.
Short self-test routine 
recommended polling time: 	 (   2) minutes.
Extended self-test routine
recommended polling time: 	 ( 100) minutes.
Conveyance self-test routine
recommended polling time: 	 (   5) minutes.
SCT capabilities: 	       (0x3037)	SCT Status supported.
					SCT Feature Control supported.
					SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0027   140   139   021    Pre-fail  Always       -       3958
  4 Start_Stop_Count        0x0032   093   093   000    Old_age   Always       -       7415
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   088   088   000    Old_age   Always       -       8932
 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   099   099   000    Old_age   Always       -       1009
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       735
193 Load_Cycle_Count        0x0032   198   198   000    Old_age   Always       -       6679
194 Temperature_Celsius     0x0022   118   094   000    Old_age   Always       -       25
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   200   200   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       0

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

Maintenant, je vous laisse tirer des conclusions parceque moi, je suis perdu lol

Hors ligne

#11 Le 03/10/2019, à 09:27

Hoper

Re : [Résolu] volume dégradé RAID 5

La conclusion c'est que ces 3 disques semblent en parfait état. Et ils ne sont pas si vieux que ça... je dirais environ 3 ans. (à un an près). Ils ont en effet tous tourner moins de 9000 heures, ce qui fait à peine plus d'un an si ils étaient resté allumés 24/24. Mais vu le nombre de d’arrêt/relance électrique, il est clair que tu les éteint effectivement toutes les nuits.

Ce qui est sur, c'est que ce raid n'a donc pas 10 ans... Tu confirme ?

Tu as essayé le mdadm --assemble ? Sur que ça marche pas, mais au moins il n'y a aucun risque a essayer. Alors que la suite logique c'est le --create. Et la oui, on risque d'abimer des trucs... Mais je vois pas du tout comment on pourrait faire autrement.

Je vais regarder si, en format 1.2, il n'y aurait pas des copies des meta data du raid quelque part hmm


Mes tutos et coups de gueule :
http://hoper.dnsalias.net/atdc/
Mastodon: @hoper@framapiaf.org

Hors ligne

#12 Le 03/10/2019, à 09:43

Optarion

Re : [Résolu] volume dégradé RAID 5

Je maintiens que les 3 disques datent de sept 2019. Je n'ai retrouvé aucune facture plus récente pour ce matériel et je n'en achète que très rarement.
le nombre d'heures ne m'étonne pas plus que ça, cela fait 125 jours d'allumage / an. Etant donné mon usage, cela est un ordre de grandeur vraissemblable.

J'essaye le mdadm --assemble ce soir. Tu me confirmes que je vérifie le nom des partitions fais un:

mdadm --assemble /dev/sd[bcd]3

A noter, j'ai oublié de le dire, que les disques ont pleins de partitions /sdb1, /sdb2, /sdb3... je croyais avoir envoyé des captures d'écrans de ce que je vois dans l'app Disk mais visiblement j'ai oublié. JE fais ça ce soir

Hors ligne

#13 Le 03/10/2019, à 13:37

Hoper

Re : [Résolu] volume dégradé RAID 5

Pour la commande, il ne faut pas oublier le device:

mdadm --verbose --assemble /dev/md0 /dev/sdb3 /dev/sdc3 /dev/sdd3

Mes tutos et coups de gueule :
http://hoper.dnsalias.net/atdc/
Mastodon: @hoper@framapiaf.org

Hors ligne

#14 Le 03/10/2019, à 20:22

Optarion

Re : [Résolu] volume dégradé RAID 5

ubuntu@ubuntu:~$ sudo mdadm --verbose --assemble /dev/md0 /dev/sdb3 /dev/sdc3 /dev/sdd3
mdadm: looking for devices for /dev/md0
mdadm: no recogniseable superblock on /dev/sdb3
mdadm: /dev/sdb3 has no superblock - assembly aborted

concernant les partitions sur les disques, voici ce que je vois via l'app Disk (identique pour chaque disk)

https://ibb.co/JxBTP9n

Dernière modification par Optarion (Le 03/10/2019, à 20:23)

Hors ligne

#15 Le 04/10/2019, à 09:50

Hoper

Re : [Résolu] volume dégradé RAID 5

Ok, merci pour la capture d'écran. Mais la en fait ce qu'il te montre c'est le type de la partition. Tu aurai le même résultat en faisant simplement un "fdisk -l".

Donc bein voila, tout ce qu'on fait montre la même chose. Il n'y a plus les metadata du raid... Sans ces metadata, on ne peux qu'essayer un peu au hasard de trouver quel format ton raid utilisait:

https://raid.wiki.kernel.org/index.php/ … ck_formats

Mais forcément si on essaye de re-créer un raid avec le mauvais format, on risque très fort d'écraser une partie des données que tes disques contiennent. Ce thread est assez intéressant à lire par exemple :

https://unix.stackexchange.com/question … superblock

Si j'étais une grosse grosse brute en informatique, et si j'avais BEAUCOUP de temps devant moi, alors je partirai à la recherche de fragment de meta-data sur le disque pour essayer de trouver quel format il utilisait.  Mais je ne suis pas une grosse brute et je n'ai pas autant de temps. A ta place, je ferai donc la chose suivante :

Je tenterai de recréer des raid de différent format, en priant pour qu'a un moment on arrive à retrouver la trace d'un système de fichier (qui sera corrompu et qu'il faudra réparer à coup de fsck). Le tout en priant aussi pour que les valeurs par défaut des caractéristiques des raid n'aient pas changé (c'est le problème avec les trucs faciles à utiliser, ça fait tous les choix à ta place... Du coup tu n'a aucune idée des valeurs utilisés par ton raid pour la taille des chunk, le type de parité etc). Si tu avait du choisir tout ça toi même en ligne de commande, tu aurai pu le noter dans un coin et on aurait eu toutes les infos smile

Comme tu peut le lire sur la page wikipedia, les formats qui étaient utilisé avant (0.9 et 1.0) mettaient les metadata à la fin du disque. C'est donc par ces versions la (en particulier la 0.9) que je commencerai. C'est plausible si le NAS à 10 ans. Et il y a moins de risque de détruire des données (il est beaucoup moins probable d'avoir des données utilisateurs sur les tout derniers bloques du disques plutôt que sur les premiers).

Pour ces raisons, je ferai ça:

mdadm --create /dev/md0 --metadata=0.90 --level=5 --raid-devices=3 /dev/sdb3 /dev/sdc3 /dev/sdd3

Soit ça fonctionne, soit on aura un peu empiré les choses... Mais vu les circonstances je vois pas trop ce qu'on peut faire d'autre...

Une fois md0 crée, il faut regardé si il trouve quelque chose dedans:

dumpe2fs /dev/md0

Mes tutos et coups de gueule :
http://hoper.dnsalias.net/atdc/
Mastodon: @hoper@framapiaf.org

Hors ligne

#16 Le 05/10/2019, à 00:08

geole

Re : [Résolu] volume dégradé RAID 5

skilk a écrit :

Bonjour,

Suite à une erreur de mise à jour mon synology me déclare mon volume comme dégradé.
Le raid était en SHR et volume Btrfs.

Périphérique   Start        Fin   Secteurs  Size Type
/dev/sdb1       2048    4982527    4980480  2,4G RAID Linux
/dev/sdb2    4982528    9176831    4194304    2G RAID Linux
/dev/sdb3    9437184 7813766815 7804329632  3,6T RAID Linux
 3,7T sdb                                            
 2,4G ├─sdb1                linux_raid_member        
   2G ├─sdb2                linux_raid_member        
 3,6T └─sdb3                linux_raid_member HPG8:2 
 

Tout est là maintenant je ne sais pas quoi faire pour me dépatouiller de tout ça.
Une petite aide serait la bienvenue.

Bonsoir
Avant de traiter les grosses partitions de 3,6 To,   Tu devrais  tenter de remettre en état les partitions de 2,4 Go et 2 Go  car c'est probablement le même problème.

Vu la volumétrie de ces partitions,  tu peux les sauver avant de commencer à bricoler.
En ligne de commande cela devrait être possible par

 sudo     dd   if=/dev/sdb1    of=$HOME/sdb1.img  bs=1M status=progress
 sudo     dd   if=/dev/sdc1    of=$HOME/sdc1.img  bs=1M status=progress
 sudo     dd   if=/dev/sdd1    of=$HOME/sdd1.img  bs=1M status=progress
 sudo     dd   if=/dev/sdb2    of=$HOME/sdb2.img  bs=1M status=progress
 sudo     dd   if=/dev/sdc2    of=$HOME/sdc2.img  bs=1M status=progress
 sudo     dd   if=/dev/sdd2    of=$HOME/sdd2.img  bs=1M status=progress

Si la commande de mdadm fait n'importe quoi, il suffira de faire faire la copie inverse  afin d'en essayer une autre.
Je duplique la proposition de Hoper

sudo mdadm --create /dev/md1 --assume-clean --metadata=0.90 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1
sudo mdadm --create /dev/md2 --assume-clean --metadata=0.90  --level=5 --raid-devices=3 /dev/sdb2 /dev/sdc2 /dev/sdd2

https://raid.wiki.kernel.org/index.php/ … ck_formats indique d'il y aurait 4 choix possibles
Sub-Version     Superblock Position on Device
0.9     At the end of the device
1.0     At the end of the device
1.1     At the beginning of the device
1.2     4K from the beginning of the device

sudo mdadm --examine /dev/sdb1
sudo mdadm --examine /dev/sdc1
sudo mdadm --examine /dev/sdd1
sudo mdadm --examine /dev/sdb2
sudo mdadm --examine /dev/sdc2
sudo mdadm --examine /dev/sdd2

Modification pour mettre l'option --assume-clean permettant de conserver le contenu existant ...

Dernière modification par geole (Le 07/10/2019, à 19:01)

Hors ligne

#17 Le 06/10/2019, à 20:51

Optarion

Re : [Résolu] volume dégradé RAID 5

hello geole

Merci pour ta réponse.
Mais en fait, je me suis complètement accaparé le post initial de skilk pour parler de mon problème qui était (sur le papier) très similaire.
Donc je n'ai pas exactement la même problématique que lui, notamment en ce qui concerne le  volume de données.

Penses tu qu'il pourrait être utile que je tente les --examine sur les partitions 1 et 2 comme tu le suggères?
Etant donné que rien ne me presse (à part l'envie de boucler le sujet) je préfèrerai tout tenter avant de passer à un --create à l'aveuglette comme propose hoper.

Sinon, en essayant de trouver le type de superblock qui pourrait avoir été utilisé pour mon RAID, je suis tombé sur ce lien: https://ubuntuforums.org/showthread.php?t=1947275
Le problème est assez semblable au mien, pensez-vous que cela pourrait être tenté?

Concernant le type de superblock, j'ai trouvé un post de forum pour un problème de raid synology datant de janv 2011 où la version était 1.1 et un autre datant de 2013 où cela semblait déjà être du 1.2. Tous les articles plus récents que j'ai trouvé traitaient de 1.2.

Dernière modification par Optarion (Le 06/10/2019, à 21:29)

Hors ligne

#18 Le 06/10/2019, à 22:10

rmy

Re : [Résolu] volume dégradé RAID 5

Optarion a écrit :

hello geole

Merci pour ta réponse.
Mais en fait, je me suis complètement accaparé le post initial de skilk pour parler de mon problème qui était (sur le papier) très similaire.
Donc je n'ai pas exactement la même problématique que lui, notamment en ce qui concerne le  volume de données.

Penses tu qu'il pourrait être utile que je tente les --examine sur les partitions 1 et 2 comme tu le suggères?
Etant donné que rien ne me presse (à part l'envie de boucler le sujet) je préfèrerai tout tenter avant de passer à un --create à l'aveuglette comme propose hoper.

Sinon, en essayant de trouver le type de superblock qui pourrait avoir été utilisé pour mon RAID, je suis tombé sur ce lien: https://ubuntuforums.org/showthread.php?t=1947275
Le problème est assez semblable au mien, pensez-vous que cela pourrait être tenté?

Concernant le type de superblock, j'ai trouvé un post de forum pour un problème de raid synology datant de janv 2011 où la version était 1.1 et un autre datant de 2013 où cela semblait déjà être du 1.2. Tous les articles plus récents que j'ai trouvé traitaient de 1.2.

Je déconseille fortement le --create, et si il n'y a pas 'autre solution, y ajouter au moins un --assume-clean pour ne pas risquer de reconstruction.

Je ne vais pas êtr très dispo sur le forum ces prochains jours, mais à minima je conseille de commencer :
- par un clone de chacun des disques avec ddrescue vers un/des supports sains (ça coute pas très cher un disque dur aujourd'hui)
- une recherche avec testdisk pour retrouver éventuellement l'emplacement des volumes raid et leur méta, et ensuite créer des loopdevice pour un assemblage.

En tout cas, un --create ne conserve pas l'état initial et c'est plutôt grave, en RDD…

Hors ligne

#19 Le 06/10/2019, à 23:14

geole

Re : [Résolu] volume dégradé RAID 5

Optarion a écrit :

......
concernant les partitions sur les disques, voici ce que je vois via l'app Disk (identique pour chaque disk)
https://ibb.co/JxBTP9n

Cela nous avait échappé.      Dans la copie que tu as fourni, on voit la version     RAIDS utilisée pour la partition 3

Peux-tu regarder pour les partitions 1 et 2   afin de savoir si c'est aussi la même version:  C'est à dire  (VERSION 0.90.0) et si c'est aussi le même type de partition ? ( Linux RAID AUTO)

NOTA: Dans mon contexte, il est écrit  " Contenu EXT4 (version 1.0) non-monté"

Hors ligne

#20 Le 07/10/2019, à 08:39

geole

Re : [Résolu] volume dégradé RAID 5

Optarion a écrit :

J'ai pu prendre quelques minutes pour brancher les dd un par un (jusque là je branchais les 3 en même temps)
Maintenant, je vous laisse tirer des conclusions parceque moi, je suis perdu lol

Bonjour
Je ne comprends pas pourquoi tu décides de les brancher un par un.
Rebranche les trois disques ensemble et donne le retour de cette commande

sudo lsblk -o size,name,fstype,label,mountpoint

D'autre part comme tes trois disques sont en excellant état, il n'est peut-être pas nécessaire d'acheter trois nouveaux disques pour  duplication.   La commande testdisk devrait pouvoir se lancer sur les disques eux-mêmes. mais je ne sais pas ce qu'il faut chercher

TestDisk 7.0, Data Recovery Utility, April 2015
Christophe GRENIER <grenier@cgsecurity.org>
http://www.cgsecurity.org

Disk /dev/sdb - 500 GB / 465 GiB - CHS 60801 255 63

     Partition                  Start        End    Size in sectors
> 1 P Linux                    0  32 33 60801  15 14  976766976 [RAID0-A]

 [  Type  ] >[Superblock]  [  List  ]  [Image Creation]  [  Quit  ]
                    Locate ext2/ext3/ext4 backup superblock
TestDisk 7.0, Data Recovery Utility, April 2015
Christophe GRENIER <grenier@cgsecurity.org>
http://www.cgsecurity.org

Disk /dev/sdb - 500 GB / 465 GiB - CHS 60801 255 63

     Partition                  Start        End    Size in sectors

>  Linux                    0  32 33 60801  15 14  976766976 [RAID0-A]          
 superblock 0, blocksize=4096 [RAID0-A]
    Next

>[  Quit  ]

Hors ligne

#21 Le 07/10/2019, à 08:53

rmy

Re : [Résolu] volume dégradé RAID 5

geole :
La duplication est IMPÉRATIVE pour conservation de l'état initial si on veut pouvoir tenter des --create. Et puis vu le prix des disques, ça permettra par la suite de créer un autre RAID pour organiser un VRAI Backup ;-)

Avec testdisk, en utilisant "none" pour table de partition et en laissant la recherche se faire jusqu'à la fin (puisque les méta 0.9 sont en fin de partition) on devrait retrouver les partitions RAID si les méta existent encore. C'est l'hypothèse d'un problème ou le NAS pour une raison inconnue aurait modifié la partition, ça permet de retrouver celle avec les méta, de faire un loopdevice, puis un --assemble… plutôt que de passer par du --create.

Concernant ton appel à jamesbad000, encore une fois n'allez pas trop vite en besogne avec les --create. En l'occurence ici, il n'est pas du tout souhaitable de créer un raid avec des méta 1.2 là où il y avait du 0.9 avant, je ne sais pas ce que fait le script exactement. De toutes façons pas du tout souhaitable de risquer d'écraser des méta mdadm qui existent peut-être encore, même si pour l'instant les --examine restent muets.

Je vais essayer de suivre un peu ce post malgré ma faible disponibilité prochaine.

Hors ligne

#22 Le 07/10/2019, à 09:35

Hoper

Re : [Résolu] volume dégradé RAID 5

Merci beaucoup rmy. J'ai fait deux grosses erreurs dans ce thread. Le --create sans le assume-clean, et je viens aussi de réaliser le dumpe2fs alors qu'on est en brtfs.

Bref, pas évident le dépannage à distance quand c'est pas son matériel dont on connais bien la conf etc. Du coup je pense qu'avant de dire plus de bêtises je vais m’arrêter la smile

Par curiosité, 3 disques qui perdent leur metadata... Une idée de ce qui à pu provoquer ça ? C'est forcément un bug logiciel qui à demandé d'écrire au mauvais endroit la...


Mes tutos et coups de gueule :
http://hoper.dnsalias.net/atdc/
Mastodon: @hoper@framapiaf.org

Hors ligne

#23 Le 07/10/2019, à 10:48

rmy

Re : [Résolu] volume dégradé RAID 5

Hoper a écrit :

Par curiosité, 3 disques qui perdent leur metadata... Une idée de ce qui à pu provoquer ça ? C'est forcément un bug logiciel qui à demandé d'écrire au mauvais endroit la...

J'ai trop peu d'éléments pour répondre avec certitude mais dans le cas d'un NAS j'ai toujours tendance à priviliégier une MàJ firmware automatique qui a foutu le bazar, et potentiellement écrit de nouvelles partitions mais sans finir le job…

Hors ligne

#24 Le 07/10/2019, à 21:04

jamesbad000

Re : [Résolu] volume dégradé RAID 5

Bonsoir,

Je note pas mal de confusion, et je subodore des changement de devices
car au début, il y a bien des métadonnée raid sur sdb3

 3,6T └─sdb3                linux_raid_member HPG8:2 

et ensuite il n'y en aurait plus

ubuntu@ubuntu:/home$ sudo mdadm --examine /dev/sdb3
mdadm: No md superblock detected on /dev/sdb3.


Ci-dessus concerne le sujet initial et rien à voir donc...

Par ailleurs

Optarion a écrit :

concernant les commandes mdadm --examine /dev/sdb3, je l'ai tnté sur toutes les partitions et j'ai toujours la réponse  '... is not an md array'.

mdadm --examine ne retourne pas ce message d'erreur 'is not an md array' (et pour cause l'argument n'est pas un volume raid, mais un composant de la grappe !) Mais le message "No md superblock detected..." comme on le voit un peu plus haut.
Si bien qu'il y a encore espoir qu'en fin de compte tout soit bien à sa place.

Je suggère donc de reposer tout sur la table de façon rigoureuse (pas de description des réponses des commandes, mais la commande et la réponse copiée collée depuis le terminal).

Pour commencer on procède à l'identification des noms de devices persistants:

sudo lsblk -o size,name,fstype,label,mountpoint
ls -l /dev/disk/by-id

Dernière modification par jamesbad000 (Le 08/10/2019, à 20:43)


L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne

#25 Le 08/10/2019, à 01:13

rmy

Re : [Résolu] volume dégradé RAID 5

Bien vu jamesbad000 :-)
D'autant que si il y a eu des disques avec méta branchés puis retirés, il y a pu avoir création d'un dev RAID et ensuite décallage des lettres de devices au rebranchement si le md n'a pas été supprimé entre temps !
La piste me semble bonne.

Hors ligne