#26 Le 25/01/2017, à 20:16
- jmvau54
Re : Récupération données Raid 5 provenant d'un NAS
J'abandonne la commande badblocks du coup?
et c'est sur le disque sdc que tu veux que je fasse toutes ces commandes et non le sdd comme c'est dans tes commandes ?
est ce que copier l'intégralité du disque sur un autre ?
Dernière modification par jmvau54 (Le 25/01/2017, à 20:30)
Hors ligne
#27 Le 25/01/2017, à 22:18
- jmvau54
Re : Récupération données Raid 5 provenant d'un NAS
Please help
jm@jm-P35C-DS3R:~$ sudo debugfs -f sdc2.testb.in /dev/sdc2 > sdc2.testb.out
[sudo] Mot de passe de jm :
debugfs 1.42.13 (17-May-2015)
/dev/sdc2: Bad magic number in super-block while opening filesystem
testb: Filesystem not open
testb: Filesystem not open
testb: Filesystem not open
testb: Filesystem not open
...
La seconde commande
root@jm-P35C-DS3R:~# MAX=5; i=1;for block in $(cat ~/SDC2.badblocks); do
> if [ $i -le $MAX ]
> then
> sudo hdparm --read-sector $(($block*1)) /dev/sdc2 | grep 'reading sector'
> let $[ i+=1 ]
> fi
> done
Device /dev/sdc2 has non-zero LBA starting offset of 3147776.
Please use an absolute LBA with the /dev/ entry for the raw device, rather than a partition or raid name.
/dev/sdc2 is probably a partition of /dev/sdc (?)
The absolute LBA of sector 1080960640 from /dev/sdc2 should be 1084108416
Aborting.
Device /dev/sdc2 has non-zero LBA starting offset of 3147776.
Please use an absolute LBA with the /dev/ entry for the raw device, rather than a partition or raid name.
/dev/sdc2 is probably a partition of /dev/sdc (?)
The absolute LBA of sector 1080960641 from /dev/sdc2 should be 1084108417
Aborting.
Device /dev/sdc2 has non-zero LBA starting offset of 3147776.
Please use an absolute LBA with the /dev/ entry for the raw device, rather than a partition or raid name.
/dev/sdc2 is probably a partition of /dev/sdc (?)
The absolute LBA of sector 1080960642 from /dev/sdc2 should be 1084108418
Aborting.
Device /dev/sdc2 has non-zero LBA starting offset of 3147776.
Please use an absolute LBA with the /dev/ entry for the raw device, rather than a partition or raid name.
/dev/sdc2 is probably a partition of /dev/sdc (?)
The absolute LBA of sector 1080960643 from /dev/sdc2 should be 1084108419
Aborting.
Device /dev/sdc2 has non-zero LBA starting offset of 3147776.
Please use an absolute LBA with the /dev/ entry for the raw device, rather than a partition or raid name.
/dev/sdc2 is probably a partition of /dev/sdc (?)
The absolute LBA of sector 1081253000 from /dev/sdc2 should be 1084400776
Aborting.
root@jm-P35C-DS3R:~#
Dernière modification par jmvau54 (Le 25/01/2017, à 22:22)
Hors ligne
#28 Le 25/01/2017, à 22:22
- Bougron
Re : Récupération données Raid 5 provenant d'un NAS
Laisses tourner sur SDC.
Ce qu'il va sortir sera la surprise. Mais il sera bon pour un formatage usine. (Je te donnerais les indications) car la mécanique reste bonne.
Mais tu es bon pour commander un nouveau disque d'au moins 2 To pour le remplacer dans le raids.
Je te propose donc maintenant de monter le RAIDS avec les partitions SDA2 SDB2 SDD2
La commande de montage va venir.
et de commencer à dupliquer logiquement les répertoires et les fichiers pour se prémunir d'un ennui. En espérant que tes disques actuels seront suffisamment "vastes" pour accueillir ce que tu vas sauvegarder.
La suite sera d'acheter un disque d'au moins 2 To , de le synchroniser. puis d'éliminer SDD afin de pouvoir traiter tranquillement les secteurs badblocks car leur nombre est très important et risque de dépasser la limite des secteurs de réserve (valeur top secrète des fabricants).
Nota Le chiffre de 1367 concerne les secteurs des fichiers qui ont voulu être lus et dont la bonne lecture a été assurée par le RAIDS.
le chiffre de 6954 concerne la totalité des secteurs de la partition y compris ceux qui ne sont pas utilisés pour stocker des données d'un fichier.
Ce sont des valeurs importantes. Je ne suis pas certain que la quantité des secteurs de réserve soit suffisante pour réparer sans risque.
Dernière modification par Bougron (Le 25/01/2017, à 22:40)
Hors ligne
#29 Le 25/01/2017, à 22:28
- Bougron
Re : Récupération données Raid 5 provenant d'un NAS
Please help
jm@jm-P35C-DS3R:~$ sudo debugfs -f sdc2.testb.in /dev/sdc2 > sdc2.testb.out [sudo] Mot de passe de jm : debugfs 1.42.13 (17-May-2015) /dev/sdc2: Bad magic number in super-block while opening filesystem testb: Filesystem not open testb: Filesystem not open testb: Filesystem not open testb: Filesystem not open ...
La seconde commande
root@jm-P35C-DS3R:~# MAX=5; i=1;for block in $(cat ~/SDC2.badblocks); do > if [ $i -le $MAX ] > then > sudo hdparm --read-sector $(($block*1)) /dev/sdc2 | grep 'reading sector' > let $[ i+=1 ] > fi > done Device /dev/sdc2 has non-zero LBA starting offset of 3147776. Please use an absolute LBA with the /dev/ entry for the raw device, rather than a partition or raid name. /dev/sdc2 is probably a partition of /dev/sdc (?) The absolute LBA of sector 1080960640 from /dev/sdc2 should be 1084108416 Aborting. Device /dev/sdc2 has non-zero LBA starting offset of 3147776. Please use an absolute LBA with the /dev/ entry for the raw device, rather than a partition or raid name. /dev/sdc2 is probably a partition of /dev/sdc (?) The absolute LBA of sector 1080960641 from /dev/sdc2 should be 1084108417 Aborting. Device /dev/sdc2 has non-zero LBA starting offset of 3147776. Please use an absolute LBA with the /dev/ entry for the raw device, rather than a partition or raid name. /dev/sdc2 is probably a partition of /dev/sdc (?) The absolute LBA of sector 1080960642 from /dev/sdc2 should be 1084108418 Aborting. Device /dev/sdc2 has non-zero LBA starting offset of 3147776. Please use an absolute LBA with the /dev/ entry for the raw device, rather than a partition or raid name. /dev/sdc2 is probably a partition of /dev/sdc (?) The absolute LBA of sector 1080960643 from /dev/sdc2 should be 1084108419 Aborting. Device /dev/sdc2 has non-zero LBA starting offset of 3147776. Please use an absolute LBA with the /dev/ entry for the raw device, rather than a partition or raid name. /dev/sdc2 is probably a partition of /dev/sdc (?) The absolute LBA of sector 1081253000 from /dev/sdc2 should be 1084400776 Aborting. root@jm-P35C-DS3R:~#
Pour SDC2 C'est fini, il est mort. Il faut prendre SDD2.
Mes tests n'ont pas été faits en RAIDS. Mais je vais me fabriquer un environnement RAIDS5!
Hors ligne
#30 Le 25/01/2017, à 22:57
- Bougron
Re : Récupération données Raid 5 provenant d'un NAS
On va maintenant monter ce qu'il est possible de faire avec les partitions SDA2 SDB2 SDD2 , Je prends exemple sur https://forum.ubuntu-fr.org/viewtopic.p … #p21619183
1) Arrêt du raid au cas où mais je ne crois pas qu'il soit monté
sudo mdadm -S /dev/md2
2) Vérif que tout le monde est là ou on l'attend. Très important car tu as débranché pas mal de disques.
sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
3) Assemblage du raid avec resynchronisation forcée.
sudo mdadm -A -v -U resync -f /dev/md2 /dev/sd[abd]2
4) Voir l'état d'avancement de la reconstruction.
sudo mdadm -D /dev/md2 | egrep -i 'state :|Resync Status'
5) Bien attendre que cela soit fini.
"Resync status" va donner un % de progression, puis quand state est revenu à "clean" disparaître.
6) Vérif de l'état du système de fichier.
sudo fsck -fn /dev/md2
7) Si je ne me suis pas trompé, accéder au raids.
sudo mkdir /mnt/RAIDS
sudo mount /dev/md2 /mnt/RAIDS
ls -rtl /mnt/RAIDS
8) Ne restera plus plus qu'a dupliquer ce qui semble plus important avant de réactiver le remplaçant de SDC.
9) Puis penser à rectifier SDD avec ses 6954 secteurs illisibles!
Dernière modification par Bougron (Le 25/01/2017, à 23:04)
Hors ligne
#31 Le 25/01/2017, à 23:22
- jmvau54
Re : Récupération données Raid 5 provenant d'un NAS
les autres disques n'étaient pas branchés sur cet ordi
jm@jm-P35C-DS3R:~$ sudo mdadm -S /dev/md0
mdadm: stopped /dev/md0
jm@jm-P35C-DS3R:~$ sudo mdadm -S /dev/md1
mdadm: stopped /dev/md1
jm@jm-P35C-DS3R:~$ sudo mdadm -A -v -U resync -f /dev/md2 /dev/sd[abd]2
mdadm: looking for devices for /dev/md2
mdadm: /dev/sda2 is identified as a member of /dev/md2, slot 0.
mdadm: /dev/sdb2 is identified as a member of /dev/md2, slot 1.
mdadm: /dev/sdd2 is identified as a member of /dev/md2, slot 3.
mdadm: Marking array /dev/md2 as 'clean'
mdadm: added /dev/sdb2 to /dev/md2 as 1
mdadm: no uptodate device for slot 4 of /dev/md2
mdadm: added /dev/sdd2 to /dev/md2 as 3 (possibly out of date)
mdadm: added /dev/sda2 to /dev/md2 as 0
mdadm: /dev/md2 assembled from 2 drives - not enough to start the array.
jm@jm-P35C-DS3R:~$
J'ai cherché un peu sur le net, mais je n'ai rien trouvé de particulier
Dernière modification par jmvau54 (Le 26/01/2017, à 00:00)
Hors ligne
#32 Le 26/01/2017, à 00:14
- Bougron
Re : Récupération données Raid 5 provenant d'un NAS
Bonsoir.
1+1+1=2. Cela me dépasse. J'espère avoir un renfort de poids.
Tu as dis "J'ai cherché un peu sur le net, mais je n'ai rien trouvé de particulier"
Tu aurais pu trouver cela. https://forum.ubuntu-fr.org/viewtopic.p … #p20340511 Mais je ne suis pas sur du tout des conséquences.
Pour le moment, je te conseille d'attendre l'arrivée de jamesbad000.
Hors ligne
#33 Le 26/01/2017, à 00:28
- jamesbad000
Re : Récupération données Raid 5 provenant d'un NAS
Bonsoir.
Tu aurais pu trouver cela. https://forum.ubuntu-fr.org/viewtopic.p … #p20340511 Mais je ne suis pas sur du tout des conséquences.
Moi non plus je suis pas sur des conséquence. Mais à priori --create est a éviter pour remonter un raid existant
Je reviendrais voir ce sujet demain soir...
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#34 Le 26/01/2017, à 00:40
- jmvau54
Re : Récupération données Raid 5 provenant d'un NAS
ok.
Merci pour votre aide en tout cas.
2 autres qui ont fait la même chose
http://askubuntu.com/questions/621824/r … date-raid5
https://ubuntuforums.org/showthread.php … 765&page=2
Dernière modification par jmvau54 (Le 26/01/2017, à 00:46)
Hors ligne
#35 Le 26/01/2017, à 11:50
- Bougron
Re : Récupération données Raid 5 provenant d'un NAS
Bonjour.
Merci de ta recherche de nouveaux cas. J'ai lu ce commentaire.
"There were two devices with bad sectors and I knew that the raid will crash again while resyncing when it wants to read or write to bad sectors.
So I decided to build up a degraded raid that is not syncing. I cleared all superblocks and created the raid leaving out one damaged device with"
Attendons l'avis de Jamesbad000
A mon avis, 6954 blocs défectueux à réparer, cela m'inquiète, je suis fortement tenté de te proposer de dupliquer par "ddrescue" le disque SDD
sur un disque tout neuf avant de tenter l'opération de réparation des secteurs défectueux.
Suite pour le disque SDC qui va certainement devenir FAILED.
Un extrait de ton post#4
sudo smartctl -s on -a /dev/sdc
=== START OF INFORMATION SECTION ===
Model Family: Western Digital Caviar Green (AF)
Device Model: WDC WD20EARS-00MVWB0
Serial Number: WD-WMAZA0775988
LU WWN Device Id: 5 0014ee 6006d7948
Firmware Version: 51.0AB51
User Capacity: 2 000 398 934 016 bytes [2,00 TB]
Sector Size: 512 bytes logical/physical
ATA Version is: ATA8-ACS (minor revision not indicated)
SATA Version is: SATA 2.6, 3.0 Gb/s
Local Time is: Mon Jan 23 23:14:18 2017 CET
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 175 175 051 Pre-fail Always - 2075
4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 533
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0
9 Power_On_Hours 0x0032 097 097 000 Old_age Always - 2826
197 Current_Pending_Sector 0x0032 196 196 000 Old_age Always - 1331
200 Multi_Zone_Error_Rate 0x0008 088 088 000 Old_age Offline - 29929
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Short offline Completed: read failure 10% 2824 1195731968
# 2 Short offline Completed: read failure 10% 2824 1195726792
# 3 Short offline Completed: read failure 10% 2823 1195732176
# 4 Short offline Completed: read failure 90% 1040 1079687313
Rien ne laissait penser que le compteur 1 allait exploser en 48 heures.
http://www.01net.com/tests/test-un-disq … -2074.html
A lire http://poloastucien.free.fr/format_bas_niveau_h.html
Un document à lire qui explique un formatage usine d'un disque dur. Il va être a décliner pour ton modèle de disque https://forum.ubuntu-fr.org/viewtopic.p … #p21571533
Un autre à lire aussi http://univers.du.pc.free.fr/pages/th_l … .php?id=30 qui fait pointer sur http://www.commentcamarche.net/download … te-boot-cd qui contient
c. Des outils de Gestion des Disques Durs.=
Menu 2 page 4. Ces outils permettent de faire un formatage de bas niveau d'un disque dur. Je ne recommande pas l'utilisation de ces outils à toutes les personnes. Le formatage de bas niveau est un procédé long qu'il ne faut utiliser que si votre disque dur est défectueux et ne peut pas être réparé autrement.
Mais il n'y a pas de raison de ne pas trouver sur le site du constructeur https://support.wdc.com/product.aspx?ID=608
ici,? https://support.wdc.com/knowledgebase/a … spx?ID=940
"ERASE - Erase will low-level format the drive with options of Full Erase and Quick Erase. File system and partition table will be permanently erased.
IMPORTANT "
==> J'ai peut-être trouvé le logiciel , Il suffit d'en faire une clé USB bootable https://support.wdc.com/knowledgebase/a … 211#dlgdos
Dernière modification par Bougron (Le 26/01/2017, à 13:25)
Hors ligne
#36 Le 26/01/2017, à 13:52
- jmvau54
Re : Récupération données Raid 5 provenant d'un NAS
Ca a l'air d'être le bon logiciel. Je le ferai sous windows le moment venu.
J'ai parcouru tes liens.
Tu voulais que je lise quelque chose de particulier sur l'article de 01net ?
Pour la duplication du disque, y a t il un point négatif à le faire ?
Si c'est juste une question de temps, je le laisse tourner cette nuit.
Dernière modification par jmvau54 (Le 26/01/2017, à 14:06)
Hors ligne
#37 Le 26/01/2017, à 14:35
- Bougron
Re : Récupération données Raid 5 provenant d'un NAS
Il n'y a rien à lire de particulier. C'est juste pour savoir ce qu'il pensait de ce disque.
Pour la duplication, il te faut un disque libre de 2 To ( Mais cela ne sera pas le SDC actuel) pour que cela soit simple à dupliquer car cela sera en physique avec ddrescue.
Au fait, cela donne quoi pour le SDC? Le BADBLOCK et un nouveau smartctl
Dernière modification par Bougron (Le 27/01/2017, à 09:19)
Hors ligne
#38 Le 26/01/2017, à 15:06
- jmvau54
Re : Récupération données Raid 5 provenant d'un NAS
J'ai 2 seagate de 2to chacun qui sont vides. Je ferai un petit smartctrl avant pour vérifier qu'ils n'ont pas de soucis. C'est les derniers que j'ai acheté, ils n'ont pas beaucoup tourné, donc ils ne devraient pas avoir de soucis.
Pour SDC, le nombre d'erreur, de mémoire était au alentour de 8000.
Je te mets les valeurs ce soir.
Hors ligne
#39 Le 26/01/2017, à 17:17
- Bougron
Re : Récupération données Raid 5 provenant d'un NAS
La doc pour DDRESCUE https://doc.ubuntu-fr.org/ddrescue
Tu installes uniquement ddrescue. Il possède un suivi rudimentaire.
La taille physique du secteur de sdd est de 512
sudo smartctl -s on -a /dev/sdd
User Capacity: 2 000 398 934 016 bytes [2,00 TB]
Sector Size: 512 bytes logical/physical
Puis tu vérifies bien pour ne pas te tromper dans les disques
sudo fdisk -l
Le disque réception sera celui qui n'a rien. Inutile de lui créer des partitions, on va tout écraser dans la manip.
Donc une première copie. Il faut que tu remplaces X par la bonne lettre.
sudo ddrescue -f -N -n -b512 /dev/sdd /dev/sdX ~/suivi
sudo ddrescue -f -c1 -b512 /dev/sdd /dev/sdX ~/suivi
Puis on ne s'embête pas à récupérer les secteurs défectueux.
C'est une opération longue qui peut se terminer par la mort du disque alors qu'on ne va peut-être pas avoir besoin de la duplication s'il n'y a pas de fausse manip.
Mais on va quand même regarder combien il y en a.
touch ~/badblocs
ddrescuelog -l- -b512 ~suivi >~/badblocs
wc ~/badblocs
Dernière modification par Bougron (Le 26/01/2017, à 17:25)
Hors ligne
#40 Le 26/01/2017, à 22:05
- jamesbad000
Re : Récupération données Raid 5 provenant d'un NAS
Bonsoir,
peux-tu essayer
sudo mdadm -S /dev/md2
sudo mdadm -A -v -f /dev/md2 /dev/sd[abd]2
Et si ça fonctionne, ne tente surtout pas d'utiliser le volume raid pour le moment.
Edit: j'ai ajouté l'arrêt préalable du raid au cas ou...
Dernière modification par jamesbad000 (Le 26/01/2017, à 22:16)
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#41 Le 26/01/2017, à 22:18
- jmvau54
Re : Récupération données Raid 5 provenant d'un NAS
Je mets à jour au fur et à mesure
La nouvelle config (avec les 2 disques en plus). Les disques du raid n'ont pas changé de lettre
jm@jm-P35C-DS3R:~$ sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
[sudo] Mot de passe de jm :
Désolé, essayez de nouveau.
[sudo] Mot de passe de jm :
SIZE NAME FSTYPE LABEL MOUNTPOINT
1,8T sda
512M ├─sda1 linux_raid_member
512M │ └─md0 swap
1,8T ├─sda2 linux_raid_member 1
1G ├─sda3
1G └─sda4 ext4
1,8T sdb
512M ├─sdb1 linux_raid_member
512M │ └─md0 swap
1,8T ├─sdb2 linux_raid_member 1
1G ├─sdb3
1G └─sdb4 ext4
1,8T sdc
512M ├─sdc1 linux_raid_member
512M │ └─md0 swap
1,8T ├─sdc2 linux_raid_member 1
1G ├─sdc3
1G └─sdc4 ext4
1,8T sdd
512M ├─sdd1 linux_raid_member
1,8T ├─sdd2 linux_raid_member 1
1G ├─sdd3
1G └─sdd4 ext4
1,8T sde
517,7M ├─sde1 linux_raid_member 9
517,6M │ └─md127 ext3
517,7M ├─sde2 linux_raid_member 256
517,7M │ └─md126 swap
1,8T ├─sde3 linux_raid_member 1
1,8T │ └─md123 LVM2_member
517,7M ├─sde4 linux_raid_member 13
448,1M │ └─md124 ext3
8G └─sde5 linux_raid_member 321
6,9G └─md125 swap
1,8T sdf
517,7M ├─sdf1 linux_raid_member 9
517,6M │ └─md127 ext3
517,7M ├─sdf2 linux_raid_member 256
517,7M │ └─md126 swap
1,8T ├─sdf3 linux_raid_member 1
1,8T │ └─md123 LVM2_member
517,7M ├─sdf4 linux_raid_member 13
448,1M │ └─md124 ext3
8G └─sdf5 linux_raid_member 321
6,9G └─md125 swap
111,8G sdg
107,8G ├─sdg1 ext4 /
1K ├─sdg2
4G └─sdg5 swap [SWAP]
jm@jm-P35C-DS3R:~$
Le smartctl des 2 nouveaux disques
jm@jm-P35C-DS3R:~$ sudo smartctl -a /dev/sde
smartctl 6.5 2016-01-24 r4214 [x86_64-linux-4.4.0-59-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Hitachi Ultrastar A7K2000
Device Model: Hitachi HUA722020ALA330
Serial Number: JK11B1B9KZGETF
LU WWN Device Id: 5 000cca 222f81fde
Firmware Version: JKAOA3EA
User Capacity: 2 000 398 934 016 bytes [2,00 TB]
Sector Size: 512 bytes logical/physical
Rotation Rate: 7200 rpm
Form Factor: 3.5 inches
Device is: In smartctl database [for details use: -P show]
ATA Version is: ATA8-ACS T13/1699-D revision 4
SATA Version is: SATA 2.6, 3.0 Gb/s
Local Time is: Thu Jan 26 22:24:13 2017 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x85) Offline data collection activity
was aborted by an interrupting command from host.
Auto Offline Data Collection: Enabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: (22330) seconds.
Offline data collection
capabilities: (0x5b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
No Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 1) minutes.
Extended self-test routine
recommended polling time: ( 372) minutes.
SCT capabilities: (0x003d) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x000b 100 100 016 Pre-fail Always - 0
2 Throughput_Performance 0x0005 132 132 054 Pre-fail Offline - 105
3 Spin_Up_Time 0x0007 120 120 024 Pre-fail Always - 599 (Average 609)
4 Start_Stop_Count 0x0012 100 100 000 Old_age Always - 119
5 Reallocated_Sector_Ct 0x0033 100 100 005 Pre-fail Always - 0
7 Seek_Error_Rate 0x000b 100 100 067 Pre-fail Always - 0
8 Seek_Time_Performance 0x0005 121 121 020 Pre-fail Offline - 35
9 Power_On_Hours 0x0012 100 100 000 Old_age Always - 358
10 Spin_Retry_Count 0x0013 100 100 060 Pre-fail Always - 0
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 116
192 Power-Off_Retract_Count 0x0032 100 100 000 Old_age Always - 129
193 Load_Cycle_Count 0x0012 100 100 000 Old_age Always - 129
194 Temperature_Celsius 0x0002 214 214 000 Old_age Always - 28 (Min/Max 9/59)
196 Reallocated_Event_Count 0x0032 100 100 000 Old_age Always - 0
197 Current_Pending_Sector 0x0022 100 100 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0008 100 100 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x000a 200 200 000 Old_age Always - 0
SMART Error Log Version: 0
No Errors Logged
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Short offline Completed without error 00% 358 -
# 2 Extended offline Completed without error 00% 316 -
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
jm@jm-P35C-DS3R:~$
jm@jm-P35C-DS3R:~$ sudo smartctl -a /dev/sdf
smartctl 6.5 2016-01-24 r4214 [x86_64-linux-4.4.0-59-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Hitachi Ultrastar A7K2000
Device Model: Hitachi HUA722020ALA330
Serial Number: JK11A8B9GK7NHF
LU WWN Device Id: 5 000cca 222c7d711
Firmware Version: JKAOA3EA
User Capacity: 2 000 397 852 160 bytes [2,00 TB]
Sector Size: 512 bytes logical/physical
Rotation Rate: 7200 rpm
Form Factor: 3.5 inches
Device is: In smartctl database [for details use: -P show]
ATA Version is: ATA8-ACS T13/1699-D revision 4
SATA Version is: SATA 2.6, 3.0 Gb/s
Local Time is: Thu Jan 26 22:26:18 2017 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x80) Offline data collection activity
was never started.
Auto Offline Data Collection: Enabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: (22035) seconds.
Offline data collection
capabilities: (0x5b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
No Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 1) minutes.
Extended self-test routine
recommended polling time: ( 367) minutes.
SCT capabilities: (0x003d) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x000b 100 100 016 Pre-fail Always - 0
2 Throughput_Performance 0x0005 133 133 054 Pre-fail Offline - 101
3 Spin_Up_Time 0x0007 120 120 024 Pre-fail Always - 599 (Average 602)
4 Start_Stop_Count 0x0012 100 100 000 Old_age Always - 124
5 Reallocated_Sector_Ct 0x0033 100 100 005 Pre-fail Always - 0
7 Seek_Error_Rate 0x000b 100 100 067 Pre-fail Always - 0
8 Seek_Time_Performance 0x0005 119 119 020 Pre-fail Offline - 36
9 Power_On_Hours 0x0012 100 100 000 Old_age Always - 346
10 Spin_Retry_Count 0x0013 100 100 060 Pre-fail Always - 0
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 120
192 Power-Off_Retract_Count 0x0032 100 100 000 Old_age Always - 126
193 Load_Cycle_Count 0x0012 100 100 000 Old_age Always - 126
194 Temperature_Celsius 0x0002 200 200 000 Old_age Always - 30 (Min/Max 9/57)
196 Reallocated_Event_Count 0x0032 100 100 000 Old_age Always - 0
197 Current_Pending_Sector 0x0022 100 100 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0008 100 100 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x000a 200 200 000 Old_age Always - 0
SMART Error Log Version: 0
No Errors Logged
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Short offline Completed without error 00% 346 -
# 2 Short offline Completed without error 00% 346 -
# 3 Extended offline Completed without error 00% 304 -
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
Le disque sdc
m@jm-P35C-DS3R:~$ sudo smartctl -a /dev/sdc
smartctl 6.5 2016-01-24 r4214 [x86_64-linux-4.4.0-59-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Western Digital Caviar Green (AF)
Device Model: WDC WD20EARS-00MVWB0
Serial Number: WD-WMAZA0775988
LU WWN Device Id: 5 0014ee 6006d7948
Firmware Version: 51.0AB51
User Capacity: 2 000 398 934 016 bytes [2,00 TB]
Sector Size: 512 bytes logical/physical
Device is: In smartctl database [for details use: -P show]
ATA Version is: ATA8-ACS (minor revision not indicated)
SATA Version is: SATA 2.6, 3.0 Gb/s
Local Time is: Thu Jan 26 22:28:49 2017 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: FAILED!
Drive failure expected in less than 24 hours. SAVE ALL DATA.
See vendor-specific Attribute list for failed Attributes.
General SMART Values:
Offline data collection status: (0x84) Offline data collection activity
was suspended by an interrupting command from host.
Auto Offline Data Collection: Enabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: (36960) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 357) minutes.
Conveyance self-test routine
recommended polling time: ( 5) minutes.
SCT capabilities: (0x3035) SCT Status supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 001 001 051 Pre-fail Always FAILING_NOW 59742
3 Spin_Up_Time 0x0027 166 162 021 Pre-fail Always - 6658
4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 536
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0
9 Power_On_Hours 0x0032 097 097 000 Old_age Always - 2863
10 Spin_Retry_Count 0x0032 100 100 000 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 446
192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 53
193 Load_Cycle_Count 0x0032 199 199 000 Old_age Always - 5811
194 Temperature_Celsius 0x0022 128 104 000 Old_age Always - 22
196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 196 196 000 Old_age Always - 1335
198 Offline_Uncorrectable 0x0030 200 200 000 Old_age Offline - 63
199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 6
200 Multi_Zone_Error_Rate 0x0008 152 088 000 Old_age Offline - 12940
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Extended offline Completed: read failure 70% 2828 1077400968
# 2 Short offline Completed: read failure 10% 2826 1195727008
# 3 Short offline Completed: read failure 10% 2824 1195731968
# 4 Short offline Completed: read failure 10% 2824 1195726792
# 5 Short offline Completed: read failure 10% 2823 1195732176
# 6 Short offline Completed: read failure 90% 1040 1079687313
# 7 Short offline Completed without error 00% 836 -
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
jm@jm-P35C-DS3R:~$
Dernière modification par jmvau54 (Le 26/01/2017, à 22:31)
Hors ligne
#42 Le 26/01/2017, à 22:42
- jmvau54
Re : Récupération données Raid 5 provenant d'un NAS
Bonsoir,
peux-tu essayer
sudo mdadm -S /dev/md2 sudo mdadm -A -v -f /dev/md2 /dev/sd[abd]2
Et si ça fonctionne, ne tente surtout pas d'utiliser le volume raid pour le moment.
Edit: j'ai ajouté l'arrêt préalable du raid au cas ou...
jm@jm-P35C-DS3R:~$ sudo mdadm -S /dev/md2
mdadm: error opening /dev/md2: No such file or directory
jm@jm-P35C-DS3R:~$ sudo mdadm -S /dev/md1
mdadm: stopped /dev/md1
jm@jm-P35C-DS3R:~$ sudo mdadm -S /dev/md0
mdadm: stopped /dev/md0
jm@jm-P35C-DS3R:~$ sudo mdadm -A -v -f /dev/md2 /dev/sd[abd]2
mdadm: looking for devices for /dev/md2
mdadm: /dev/sda2 is identified as a member of /dev/md2, slot 0.
mdadm: /dev/sdb2 is identified as a member of /dev/md2, slot 1.
mdadm: /dev/sdd2 is identified as a member of /dev/md2, slot 3.
mdadm: added /dev/sdb2 to /dev/md2 as 1
mdadm: no uptodate device for slot 4 of /dev/md2
mdadm: added /dev/sdd2 to /dev/md2 as 3 (possibly out of date)
mdadm: added /dev/sda2 to /dev/md2 as 0
mdadm: /dev/md2 assembled from 2 drives - not enough to start the array.
jm@jm-P35C-DS3R:~$
Hors ligne
#43 Le 26/01/2017, à 23:16
- jamesbad000
Re : Récupération données Raid 5 provenant d'un NAS
Ok, il faudra que je fasse des simulations pour voir comment faire au mieux. Peut-être qu'on finira par être obligé de faire un create, mais avant d'en arriver là je vais tenter de simuler une situation identique et mieux comprendre ce qu'il se passe...
En attendant, le mieux serait de copier le disque sdd avec gddrescue. Et surtout cesser de torturer ce disque inutilement avec des badblocs, hdparm et même smartctl.
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#44 Le 26/01/2017, à 23:27
- jmvau54
Re : Récupération données Raid 5 provenant d'un NAS
je sui s en train de faire la copie de sdd
il a copié 137go
3mo d'erreurs
64 erreurs
Edit :
quand je suis parti ce matin, il en était à 1800go
moins de 5mo d'erreur et 104 erreurs
Dernière modification par jmvau54 (Le 27/01/2017, à 09:11)
Hors ligne
#45 Le 27/01/2017, à 11:00
- Bougron
Re : Récupération données Raid 5 provenant d'un NAS
Bonjour
C'est un peu hors sujet..... Je fais quelques tests. Les 4 partitions de mon RAIDS5 sont en bon état et pourtant , dans certains cas (2 fois).
il arrive un autre problème lorsque je veux démarrer le RAIDS. Il m'a semblé que ce problème survenait suite au démarrage de ubuntu. Car après je peux jongler comme je veux.
Monter le raid avec seulement 3 partitions
sudo mdadm -A -v -U resync -f /dev/md127 /dev/sda19 /dev/sda20 /dev/sda22
mdadm: looking for devices for /dev/md127
mdadm: /dev/sda19 is identified as a member of /dev/md127, slot 0.
mdadm: /dev/sda20 is identified as a member of /dev/md127, slot 1.
mdadm: /dev/sda22 is identified as a member of /dev/md127, slot 3.
mdadm: added /dev/sda20 to /dev/md127 as 1
mdadm: no uptodate device for slot 4 of /dev/md127
mdadm: added /dev/sda22 to /dev/md127 as 3
mdadm: added /dev/sda19 to /dev/md127 as 0
mdadm: failed to RUN_ARRAY /dev/md127: Input/output error
et dans la foulée
sudo mdadm -A -v -U resync -f /dev/md127 /dev/sda19 /dev/sda20 /dev/sda21 /dev/sda22
mdadm: looking for devices for /dev/md127
mdadm: /dev/sda19 is identified as a member of /dev/md127, slot 0.
mdadm: /dev/sda20 is identified as a member of /dev/md127, slot 1.
mdadm: /dev/sda21 is identified as a member of /dev/md127, slot 2.
mdadm: /dev/sda22 is identified as a member of /dev/md127, slot 3.
mdadm: added /dev/sda20 to /dev/md127 as 1
mdadm: added /dev/sda21 to /dev/md127 as 2
mdadm: added /dev/sda22 to /dev/md127 as 3
mdadm: added /dev/sda19 to /dev/md127 as 0
mdadm: /dev/md127 has been started with 4 drives.
Hors ligne
#46 Le 27/01/2017, à 13:49
- jmvau54
Re : Récupération données Raid 5 provenant d'un NAS
Pour ma part, j’arrête le raid 5, c'est trop le bazar quand on a un problème.
Je remonterai tout en raid 1 même si je perds de la place.
En tout cas, merci pour votre aide.
Hors ligne
#47 Le 27/01/2017, à 17:06
- jmvau54
Re : Récupération données Raid 5 provenant d'un NAS
Ok, il faudra que je fasse des simulations pour voir comment faire au mieux. Peut-être qu'on finira par être obligé de faire un create, mais avant d'en arriver là je vais tenter de simuler une situation identique et mieux comprendre ce qu'il se passe...
En attendant, le mieux serait de copier le disque sdd avec gddrescue. Et surtout cesser de torturer ce disque inutilement avec des badblocs, hdparm et même smartctl.
Tu me diras vers quoi on se dirige.
Je pense que la copie sera finie ce soir.
Hors ligne
#48 Le 27/01/2017, à 18:37
- Bougron
Re : Récupération données Raid 5 provenant d'un NAS
Pour ma part, j’arrête le raid 5, c'est trop le bazar quand on a un problème.
Je remonterais tout en raid 1 même si je perds de la place.
En tout cas, merci pour votre aide.
Bonjour.
Prends ta décision à tête reposée.
Pour ma part, je crois que le bordel survient lorsque l'utilisateur oublie de regarder si un disque est en panne.
Le problème me semble identique en RAIDS1 https://forum.ubuntu-fr.org/viewtopic.p … #p21600923
Hors ligne
#49 Le 27/01/2017, à 19:43
- jmvau54
Re : Récupération données Raid 5 provenant d'un NAS
Salut,
c'est sur que j'ai ma part de responsabilité.
On en reparlera.
Sinon voila le resultat de la premiere commande
sudo ddrescue -f -N -n -b512 /dev/sdd /dev/sde ~/suivi
GNU ddrescue 1.19
Press Ctrl-C to interrupt
rescued: 2000 GB, errsize: 8994 kB, current rate: 0 B/s
ipos: 137848 MB, errors: 128, average rate: 53474 kB/s
opos: 137848 MB, run time: 10.39 h, successful read: 3 s ago
Finished [[A^[[A
La seconde tourne. elle met autant de temps?
Hors ligne
#50 Le 27/01/2017, à 19:54
- Bougron
Re : Récupération données Raid 5 provenant d'un NAS
Normalement , elle va plus vite , il y a 8,994 Mo à copier mais cette fois-ci avec une taille de 512 octets au lieu de 65536
Mais elle va rencontrer tous les secteurs fichus. il en en pas mal .... Je crois que c'est une seconde par secteur
Hors ligne