#1 Le 10/06/2019, à 20:56
- ClaudeVernier
Recherche de l'aide pour récupérer les données d'un NAS
Bonjour,
J'ai des soucis avec les disques de mon NAS et j'ai vus des personnes très qualifiées sur ce forum et voudrais vous demander de l'aide.
Je n'ai pas beaucoup d'expérience sur Ubuntu, je suis un développeur Web sous C#/.Net et Windows.
J'avais un NAS 4 baies de Synology nommé Impa, et après un déménagement, il a cessé de fonctionner. J'ai installé un Dual Boot Ubuntu sur mon Windows 10 et beaucoup lu sur MDADM mais je n'arrive pas à voir ce que je peux faire pour récupérer mes données.
A un moment, j'avais 3 disques dans le NAS et un est devenu défectueux donc j'ai ajouté un nouveau disque pour le remplacer et je crois que j'avais désactivé le défectueux mais je ne sais plus exactement. Maintenant j'ai 4 disques, certains avec des partitions NAS, d'autres illisibles...
J'ai l'impression que certaines parties des disques sont mortes et que la configuration des grappes RAID est fausse mais je ne sais pas quoi faire pour le réparer.
Je voudrais vous donner toutes les informations que j'ai pu trouver en espérant que quelqu?un puisse comprendre ce qu'il faut faire.
Merci de votre aide,
Claude
Lorsque le NAS fonctionnait, j'avais pris ces notes :
--------------------------------------------------------------------------------
Synology DS413j
DSM : 6.2-23739 Update 2
Type de Raid: Hybrid RAID SHR avec protection de données sur un disque
Système de fichiers: ext4
Capacité 2.68 To
Utilisé 2.17 To
Disponible 528.46 Go
Disque 1
WDC Red, 6 To
Disque 2
WDC WD30EFRX-68AX9N0, 2.73 To
Disque 3
WDC WD30EFRX-68N32N0, 3.64 To
Disque 4
WDC WD30EFRX-68AX9N0, 2.73 To
En les connectant sous Ubuntu, j'ai pus trouver ces informations:
--------------------------------------------------------------------------------
Disque dur 6.0TO
Modèle WDC WD60EFRX-68L0BN1 (82.00A82)
Taille 6,0 To (6001175126016 octets)
Partitionnement Table des partitions GUID
Numéro de série WD-WX61D38K3YDZ
Estimation SMART n’est pas activé
Périphérique /dev/sda
5,5T sda
2,4G ├─sda1 linux_raid_membe
2G ├─sda2 linux_raid_membe
2,7T ├─sda5 linux_raid_membe Impa:2
931,4G ├─sda6 linux_raid_membe Impa:3
931,4G │ └─md3 LVM2_member
1,8T └─sda7
Partition 1
Taille -> 2,6 Go (2550005760 octets)
Périphérique -> /dev/sda1
UUID -> 6019b9bf-8704-2121-3017-a5a8c86610be
Type de partition -> RAID Linux
Contenu -> Membre RAID Linux (version 0.90.0)
mdadm -Q -> /dev/sda1: is not an md array
Partition 2
Taille -> 2,1 Go (2147483648 octets)
Périphérique -> /dev/sda2
UUID -> 70e0ad02-b676-c010-53b4-b6a1ad85ad9a
Type de partition -> RAID Linux
Contenu -> Membre RAID Linux (version 0.90.0)
mdadm -Q -> /dev/sda2: is not an md array
Espace dis...
Taille -> 142 Mo (141541376 octets)
Périphérique -> /dev/sda
Contenu -> Espace non alloué
Partition 5
Taille -> 3,0 To (2995745652736 octets)
Périphérique -> /dev/sda5
UUID -> a6ffe45c-9b35-a893-36b0-8cd958d31f60
Type de partition -> RAID Linux
Contenu -> Membre RAID Linux (version 1.2)
mdadm -Q -> /dev/sda5: is not an md array
/dev/sda5: device 3 in 3 device inactive raid5 array.
Use mdadm --examine for more detail.
/dev/sda5:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : a6ffe45c:9b35a893:36b08cd9:58d31f60
Name : Impa:2
Creation Time : Fri Sep 27 08:36:12 2013
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 5851063680 (2790.00 GiB 2995.74 GB)
Array Size : 5851063296 (5580.01 GiB 5991.49 GB)
Used Dev Size : 5851063296 (2790.00 GiB 2995.74 GB)
Data Offset : 2048 sectors
Super Offset : 8 sectors
Unused Space : before=1968 sectors, after=384 sectors
State : clean
Device UUID : e0eb2eb1:f05dc775:6ee46cef:e38893c2
Update Time : Sun Apr 7 21:13:34 2019
Checksum : 2fc59dc5 - correct
Events : 814581
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 2
Array State : ..A ('A' == active, '.' == missing, 'R' == replacing)
Espace dis...
Taille -> 8,2 Mo (8241152 octets)
Périphérique -> /dev/sda
Contenu -> Espace non alloué
Partition 6
Taille -> 1,0 To (1000087093248 octets)
Périphérique -> /dev/sda6
UUID -> 216bb0ff-a54f-2520-756c-7c1a8916c2bd
Type de partition -> RAID Linux
Contenu -> Membre RAID Linux (version 1.2)
mdadm -Q -> /dev/sda6: is not an md array
/dev/sda6: device 1 in 2 device active raid1 /dev/md/3.
Use mdadm --examine for more detail.
/dev/sda6:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 216bb0ff:a54f2520:756c7c1a:8916c2bd
Name : Impa:3
Creation Time : Mon Aug 27 20:08:31 2018
Raid Level : raid1
Raid Devices : 2
Avail Dev Size : 1953293056 (931.40 GiB 1000.09 GB)
Array Size : 976646528 (931.40 GiB 1000.09 GB)
Data Offset : 2048 sectors
Super Offset : 8 sectors
Unused Space : before=1968 sectors, after=0 sectors
State : clean
Device UUID : 3e3f6a39:13a2b45c:3551dadf:928f8ec6
Update Time : Wed Nov 21 23:47:09 2018
Checksum : df8cdd7c - correct
Events : 2
Device Role : Active device 1
Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
Partition 7 (c'est le seul avec un type = RAID et contenu = inconnu)
Taille -> 2,0 To (2000379854848 octets)
Périphérique -> /dev/sda7
Type de partition -> RAID Linux
Contenu -> Inconnu
mdadm -Q -> /dev/sda7: is not an md array
Use mdadm --examine for more detail.
mdadm: No md superblock detected on /dev/sda7.
Espace dis...
Taille -> 106 Mo (105963520 octets)
Périphérique -> /dev/sda
Contenu -> Espace non alloué
--------------------------------------------------------------------------------
Disque dur 3.0TO
Modèle WDC WD30EFRX-68AX9N0 (80.00A80)
Taille 3,0 To (3000592982016 octets)
Partitionnement Table des partitions GUID
Numéro de série WD-WCC1T1479436
Estimation SMART n’est pas activé
Périphérique /dev/sdc
2,7T sdc
2,4G ├─sdc1 linux_raid_membe
2G ├─sdc2 linux_raid_membe
2,7T └─sdc5 linux_raid_membe Impa:2
Partition 1
Taille -> 2,6 Go (2550005760 octets)
Périphérique -> /dev/sdc1
UUID -> 6019b9bf-8704-2121-3017-a5a8c86610be
Type de partition -> RAID Linux
Contenu -> Membre RAID Linux (version 0.90.0)
mdadm -Q -> /dev/sdc1: is not an md array
Partition 2
Taille -> 2,1 Go (2147483648 octets)
Périphérique -> /dev/sdc2
UUID -> 70e0ad02-b676-c010-53b4-b6a1ad85ad9a
Type de partition -> RAID Linux
Contenu -> Membre RAID Linux (version 0.90.0)
mdadm -Q -> /dev/sdc2: is not an md array
Espace dis...
Taille -> 142 Mo (142458880 octets)
Périphérique -> /dev/sdc
Contenu -> Espace non alloué
Partition 5
Taille -> 3,0 To (2995745652736 octets)
Périphérique -> /dev/sdc5
UUID -> a6ffe45c-9b35-a893-36b0-8cd958d31f60
Type de partition -> RAID Linux
Contenu -> Membre RAID Linux (version 1.2)
mdadm -Q -> /dev/sdc5: is not an md array
/dev/sdc5: device 0 in 2 device inactive raid1 array.
Use mdadm --examine for more detail.
/dev/sdc5:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : a6ffe45c:9b35a893:36b08cd9:58d31f60
Name : Impa:2
Creation Time : Fri Sep 27 08:36:12 2013
Raid Level : raid1
Raid Devices : 2
Avail Dev Size : 5851063296 (2790.00 GiB 2995.74 GB)
Array Size : 2925531648 (2790.00 GiB 2995.74 GB)
Data Offset : 2048 sectors
Super Offset : 8 sectors
Unused Space : before=1968 sectors, after=384 sectors
State : clean
Device UUID : aba910b9:c8a5c6ad:551bee87:2fa688b8
Update Time : Sun Apr 7 21:10:56 2019
Checksum : 449f2cb5 - correct
Events : 700479
Device Role : Active device 0
Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
Espace dis...
Taille -> 7,2 Mo (7249920 octets)
Périphérique -> /dev/sdc
Contenu -> Espace non alloué
--------------------------------------------------------------------------------
Disque dur 3.0TO
Modèle WDC WD30EFRX-68AX9N0 (80.00A80)
Taille 3,0 To (3000592982016 octets)
Partitionnement Table des partitions GUID
Numéro de série WD-WCC1T0656443
Estimation SMART n’est pas activé
Périphérique /dev/sdd
2,7T sdd
2,4G ├─sdd1 linux_raid_membe
2G ├─sdd2 linux_raid_membe
2,7T └─sdd5 linux_raid_membe Impa:2
Partition 1
Taille -> 2,6 Go (2550005760 octets)
Périphérique -> /dev/sdd1
UUID -> 6019b9bf-8704-2121-3017-a5a8c86610be
Type de partition -> RAID Linux
Contenu -> Membre RAID Linux (version 0.90.0)
mdadm -Q -> /dev/sdd1: is not an md array
Partition 2
Taille -> 2,1 Go (2147483648 octets)
Périphérique -> /dev/sdd2
UUID -> 70e0ad02-b676-c010-53b4-b6a1ad85ad9a
Type de partition -> RAID Linux
Contenu -> Membre RAID Linux (version 0.90.0)
mdadm -Q -> /dev/sdd2: is not an md array
Espace dis...
Taille -> 142 Mo (142458880 octets)
Périphérique -> /dev/sdd
Contenu -> Espace non alloué
Partition 5
Taille -> 3,0 To (2995745652736 octets)
Périphérique -> /dev/sdd5
UUID -> a6ffe45c-9b35-a893-36b0-8cd958d31f60
Type de partition -> RAID Linux
Contenu -> Membre RAID Linux (version 1.2)
mdadm -Q -> /dev/sdd5: is not an md array
/dev/sdd5: device 1 in 3 device inactive raid5 array.
Use mdadm --examine for more detail.
/dev/sdd5:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : a6ffe45c:9b35a893:36b08cd9:58d31f60
Name : Impa:2
Creation Time : Fri Sep 27 08:36:12 2013
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 5851063296 (2790.00 GiB 2995.74 GB)
Array Size : 5851063296 (5580.01 GiB 5991.49 GB)
Data Offset : 2048 sectors
Super Offset : 8 sectors
Unused Space : before=1968 sectors, after=384 sectors
State : clean
Device UUID : 328033b9:27927c97:690b30f2:ea6e1466
Update Time : Sun Apr 7 21:27:00 2019
Checksum : ffc576f0 - correct
Events : 815089
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 1
Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)
Espace dis...
Taille -> 7,2 Mo (7249920 octets)
Périphérique -> /dev/sdd
Contenu -> Espace non alloué
--------------------------------------------------------------------------------
Disque dur 4.0TO
Modèle WDC WD40EFRX-68N32N0 (82.00A82)
Taille 4,0 To (4000787030016 octets)
Partitionnement Table des partitions GUID
Numéro de série WD-WCC1T1479436
Estimation SMART n’est pas activé
Périphérique /dev/sde
3,7T sde
2,4G ├─sde1 linux_raid_membe
2G ├─sde2 linux_raid_membe
2,7T ├─sde5 linux_raid_membe Impa:2
931,4G └─sde6 linux_raid_membe Impa:3
931,4G └─md3 LVM2_member
Partition 1
Taille -> 2,6 Go (2550005760 octets)
Périphérique -> /dev/sde1
UUID -> 6019b9bf-8704-2121-3017-a5a8c86610be
Type de partition -> RAID Linux
Contenu -> Membre RAID Linux (version 0.90.0)
mdadm -Q -> /dev/sde1: is not an md array
Partition 2
Taille -> 2,1 Go (2147483648 octets)
Périphérique -> /dev/sde2
UUID -> 70e0ad02-b676-c010-53b4-b6a1ad85ad9a
Type de partition -> RAID Linux
Contenu -> Membre RAID Linux (version 0.90.0)
mdadm -Q -> /dev/sde2: is not an md array
Espace dis...
Taille -> 142 Mo (141541376 octets)
Périphérique -> /dev/sde
Contenu -> Espace non alloué
Partition 5
Taille -> 3,0 To (2995745652736 octets)
Périphérique -> /dev/sde5
UUID -> a6ffe45c-9b35-a893-36b0-8cd958d31f60
Type de partition -> RAID Linux
Contenu -> Membre RAID Linux (version 1.2)
mdadm -Q -> /dev/sde5: is not an md array
/dev/sde5: device 2 in 3 device inactive raid5 array.
Use mdadm --examine for more detail.
/dev/sde5:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : a6ffe45c:9b35a893:36b08cd9:58d31f60
Name : Impa:2
Creation Time : Fri Sep 27 08:36:12 2013
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 5851063680 (2790.00 GiB 2995.74 GB)
Array Size : 5851063296 (5580.01 GiB 5991.49 GB)
Used Dev Size : 5851063296 (2790.00 GiB 2995.74 GB)
Data Offset : 2048 sectors
Super Offset : 8 sectors
Unused Space : before=1968 sectors, after=384 sectors
State : clean
Device UUID : 4d27b71d:25bb1ff1:071f3044:1a487bbb
Update Time : Sun Apr 7 21:21:50 2019
Checksum : 65503423 - correct
Events : 815089
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 0
Array State : A.A ('A' == active, '.' == missing, 'R' == replacing)
Espace dis...
Taille -> 8,2 Mo (8241152 octets)
Périphérique -> /dev/sde
Contenu -> Espace non alloué
Partition 6
Taille -> 1,0 To (1000087093248 octets)
Périphérique -> /dev/sde6
UUID -> 216bb0ff-a54f-2520-756c-7c1a8916c2bd
Type de partition -> RAID Linux
Contenu -> Membre RAID Linux (version 1.2)
mdadm -Q -> /dev/sde6: is not an md array
/dev/sde6: device 0 in 2 device active raid1 /dev/md/3.
Use mdadm --examine for more detail.
/dev/sde6:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 216bb0ff:a54f2520:756c7c1a:8916c2bd
Name : Impa:3
Creation Time : Mon Aug 27 20:08:31 2018
Raid Level : raid1
Raid Devices : 2
Avail Dev Size : 1953293056 (931.40 GiB 1000.09 GB)
Array Size : 976646528 (931.40 GiB 1000.09 GB)
Data Offset : 2048 sectors
Super Offset : 8 sectors
Unused Space : before=1968 sectors, after=0 sectors
State : clean
Device UUID : 004f7fd6:8f5afad8:164a69b2:b30c8a56
Update Time : Wed Nov 21 23:47:09 2018
Checksum : 5b721bbc - correct
Events : 2
Device Role : Active device 0
Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
Espace dis...
Taille -> 106 Mo (105963520 octets)
Périphérique -> /dev/sde
Contenu -> Espace non alloué
Ensuite, il y a la définition de ce volume RAID:
--------------------------------------------------------------------------------
1.0To RAID 1
/dev/md/3
1.0To LVM2 PV
Taille 1,0 To (1000086044672 octets)
Périphérique /dev/md/3
UUID r3ibpL-ImBI-1j1X-V989-92wt-TRu3-0IRbmg
Contenu Volume physique LVM2 (LVM2 001)
Commandes dans un terminal:
--------------------------------------------------------------------------------
~$ sudo mdadm -D /dev/md/3
/dev/md/3:
Version : 1.2
Creation Time : Mon Aug 27 20:08:31 2018
Raid Level : raid1
Array Size : 976646528 (931.40 GiB 1000.09 GB)
Used Dev Size : 976646528 (931.40 GiB 1000.09 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Wed Nov 21 23:47:09 2018
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
Name : Impa:3
UUID : 216bb0ff:a54f2520:756c7c1a:8916c2bd
Events : 2
Number Major Minor RaidDevice State
0 8 70 0 active sync /dev/sde6
1 8 6 1 active sync /dev/sda6
--------------------------------------------------------------
~$ sudo mdadm -Db /dev/md/3 -- appropriate for adding to the /dev/mdadm/mdadm.conf
ARRAY /dev/md/3 metadata=1.2 name=Impa:3 UUID=216bb0ff:a54f2520:756c7c1a:8916c2bd
--------------------------------------------------------------
~$ sudo mdadm -Q /dev/md/3
/dev/md/3: 931.40GiB raid1 2 devices, 0 spares. Use mdadm --detail for more detail.
--------------------------------------------------------------
~$ cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md3 : active raid1 sda6[1] sde6[0]
976646528 blocks super 1.2 [2/2] [UU]
unused devices: <none>
Modération : merci d'utiliser les balises code (explications ici).
Dernière modification par cqfd93 (Le 10/06/2019, à 21:21)
Hors ligne
#2 Le 10/06/2019, à 21:33
- Nuliel
Re : Recherche de l'aide pour récupérer les données d'un NAS
Bonjour,
Je ne vais pas pouvoir beaucoup aider (je ne connais pas mdadm ni raid) mais une chose qui pourrait être très utile, c'est les rapports smart de chaque disque afin de voir les états des disques durs (d'ailleurs je suis étonné que ce ne soit pas activé par défaut), ce qui se résume à donner les retours de commande
sudo apt-get install --no-install-recommends smartmontools
sudo smartctl --smart=on --offlineauto=on --saveauto=on /dev/sda
sudo smartctl --smart=on --offlineauto=on --saveauto=on /dev/sdb
sudo smartctl --smart=on --offlineauto=on --saveauto=on /dev/sdc
sudo smartctl --smart=on --offlineauto=on --saveauto=on /dev/sdd
(en supposant que sda, sdb, sdc, sdd sont les différents disques durs, sinon il faut adapter)
puis donner
sudo smartctl -s on -a /dev/sda
sudo smartctl -s on -a /dev/sdb
sudo smartctl -s on -a /dev/sdc
sudo smartctl -s on -a /dev/sdd
Hors ligne
#3 Le 16/06/2019, à 20:00
- ClaudeVernier
Re : Recherche de l'aide pour récupérer les données d'un NAS
Bonjour !
Merci pour votre message, effectivement, dans le gestionnaire de disques il est écrit:
Estimation SMART n’est pas activé
Mais en fait, avec la commande 'smartctl', SMART semble actif partout:
~$ sudo smartctl -s on -a /dev/a
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.18.0-21-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Western Digital Red
Device Model: WDC WD60EFRX-68L0BN1
Serial Number: WD-WX61D38K3YDZ
LU WWN Device Id: 5 0014ee 2100e3309
Firmware Version: 82.00A82
User Capacity: 6001175126016 bytes [6,00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Rotation Rate: 5700 rpm
Device is: In smartctl database [for details use: -P show]
ATA Version is: ACS-2, ACS-3 T13/2161-D revision 3b
SATA Version is: SATA 3.1, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is: Sun Jun 16 20:44:06 2019 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: ( 5024) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 703) minutes.
Conveyance self-test routine
recommended polling time: ( 5) minutes.
SCT capabilities: (0x303d) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 0
3 Spin_Up_Time 0x0027 197 196 021 Pre-fail Always - 9125
4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 764
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0
9 Power_On_Hours 0x0032 100 100 000 Old_age Always - 548
10 Spin_Retry_Count 0x0032 100 100 000 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 722
192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 15
193 Load_Cycle_Count 0x0032 200 200 000 Old_age Always - 756
194 Temperature_Celsius 0x0022 123 103 000 Old_age Always - 29
196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0030 100 253 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0
200 Multi_Zone_Error_Rate 0x0008 100 253 000 Old_age Offline - 0
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Conveyance offline Completed without error 00% 517 -
# 2 Conveyance offline Completed without error 00% 502 -
# 3 Conveyance offline Completed without error 00% 492 -
# 4 Short offline Completed without error 00% 474 -
# 5 Short offline Completed without error 00% 307 -
# 6 Short offline Completed without error 00% 199 -
# 7 Short offline Completed without error 00% 61 -
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
~$ sudo smartctl -s on -a /dev/sdc
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.18.0-21-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Western Digital Red
Device Model: WDC WD30EFRX-68AX9N0
Serial Number: WD-WCC1T1479436
LU WWN Device Id: 5 0014ee 25e308b70
Firmware Version: 80.00A80
User Capacity: 3000592982016 bytes [3,00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Device is: In smartctl database [for details use: -P show]
ATA Version is: ACS-2 (minor revision not indicated)
SATA Version is: SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is: Sun Jun 16 20:46:52 2019 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: (38760) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 389) minutes.
Conveyance self-test routine
recommended polling time: ( 5) minutes.
SCT capabilities: (0x70bd) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 0
3 Spin_Up_Time 0x0027 176 173 021 Pre-fail Always - 6200
4 Start_Stop_Count 0x0032 085 085 000 Old_age Always - 15637
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0
9 Power_On_Hours 0x0032 088 088 000 Old_age Always - 9024
10 Spin_Retry_Count 0x0032 100 100 000 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 085 085 000 Old_age Always - 15098
192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 70
193 Load_Cycle_Count 0x0032 195 195 000 Old_age Always - 15566
194 Temperature_Celsius 0x0022 119 102 000 Old_age Always - 31
196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0030 100 253 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0
200 Multi_Zone_Error_Rate 0x0008 100 253 000 Old_age Offline - 0
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Conveyance offline Completed without error 00% 8985 -
# 2 Conveyance offline Completed without error 00% 8977 -
# 3 Short offline Completed without error 00% 8960 -
# 4 Short offline Completed without error 00% 8794 -
# 5 Short offline Completed without error 00% 8687 -
# 6 Short offline Completed without error 00% 8507 -
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
~$ sudo smartctl -s on -a /dev/sdd
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.18.0-21-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Western Digital Red
Device Model: WDC WD30EFRX-68AX9N0
Serial Number: WD-WCC1T0656443
LU WWN Device Id: 5 0014ee 2b2f95c86
Firmware Version: 80.00A80
User Capacity: 3000592982016 bytes [3,00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Device is: In smartctl database [for details use: -P show]
ATA Version is: ACS-2 (minor revision not indicated)
SATA Version is: SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is: Sun Jun 16 20:49:37 2019 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: (40980) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 411) minutes.
Conveyance self-test routine
recommended polling time: ( 5) minutes.
SCT capabilities: (0x70bd) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 4
3 Spin_Up_Time 0x0027 176 173 021 Pre-fail Always - 6175
4 Start_Stop_Count 0x0032 084 084 000 Old_age Always - 16157
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0
9 Power_On_Hours 0x0032 088 088 000 Old_age Always - 9265
10 Spin_Retry_Count 0x0032 100 100 000 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 085 085 000 Old_age Always - 15609
192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 67
193 Load_Cycle_Count 0x0032 195 195 000 Old_age Always - 16089
194 Temperature_Celsius 0x0022 120 101 000 Old_age Always - 30
196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0030 100 253 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0
200 Multi_Zone_Error_Rate 0x0008 100 253 000 Old_age Offline - 0
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Conveyance offline Completed without error 00% 9238 -
# 2 Conveyance offline Completed without error 00% 9238 -
# 3 Conveyance offline Completed without error 00% 9228 -
# 4 Short offline Completed without error 00% 9210 -
# 5 Short offline Completed without error 00% 9044 -
# 6 Short offline Completed without error 00% 8936 -
# 7 Short offline Completed without error 00% 8779 -
# 8 Short offline Completed without error 00% 8661 -
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
~$ sudo smartctl -s on -a /dev/sde
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.18.0-21-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Western Digital Red
Device Model: WDC WD40EFRX-68N32N0
Serial Number: WD-WCC7K1RF404U
LU WWN Device Id: 5 0014ee 2640bc796
Firmware Version: 82.00A82
User Capacity: 4000787030016 bytes [4,00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Rotation Rate: 5400 rpm
Form Factor: 3.5 inches
Device is: In smartctl database [for details use: -P show]
ATA Version is: ACS-3 T13/2161-D revision 5
SATA Version is: SATA 3.1, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is: Sun Jun 16 20:50:43 2019 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: (43920) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 466) minutes.
Conveyance self-test routine
recommended polling time: ( 5) minutes.
SCT capabilities: (0x303d) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 0
3 Spin_Up_Time 0x0027 173 171 021 Pre-fail Always - 6308
4 Start_Stop_Count 0x0032 097 097 000 Old_age Always - 3135
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0
9 Power_On_Hours 0x0032 098 098 000 Old_age Always - 1808
10 Spin_Retry_Count 0x0032 100 100 000 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 097 097 000 Old_age Always - 3047
192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 31
193 Load_Cycle_Count 0x0032 199 199 000 Old_age Always - 3103
194 Temperature_Celsius 0x0022 121 101 000 Old_age Always - 29
196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0030 100 253 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0
200 Multi_Zone_Error_Rate 0x0008 100 253 000 Old_age Offline - 0
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Conveyance offline Completed without error 00% 1774 -
# 2 Conveyance offline Completed without error 00% 1761 -
# 3 Short offline Completed without error 00% 1743 -
# 4 Short offline Completed without error 00% 1577 -
# 5 Short offline Completed without error 00% 1469 -
# 6 Short offline Completed without error 00% 1300 -
# 7 Short offline Completed without error 00% 1195 -
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
J'aurais encore besoin d'aide pour comprendre comment reconstruire mon NAS ou sinon, récupérer mes données.
Si quelqu'un peut comprendre les différentes extractions que j'ai recopié ici et dans le premier message, ce serait vraiment super !!!
Merci pour toute aide,
Claude
Hors ligne
#4 Le 16/06/2019, à 22:56
- geole
Re : Recherche de l'aide pour récupérer les données d'un NAS
Bonsoir
Je vais essayer de résumer la situation
Le disque SDA fait 6 To il est en bon état
Le disque SDB est un SSD qui ne participe pas
Le disque SDC fait 3 To il est en bon état
Le disque SDD fait 3 To il est en bon état
Le disque SDE fait 4 To il est en bon état
Le disque SDF dait 6 To il est en bon état et qui n'a rien à voir avec le problème
On va faire le point sur les partitions montées avec cette commande
sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
On va faire le point sur la définition des RAIDS avec ces commandes
cat /proc/mdstat
sudo mdadm --detail /dev/md[0-9]
Puis après, il faudra réassembler (au moins mal)
Dernière modification par geole (Le 17/06/2019, à 23:11)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#5 Le 17/06/2019, à 22:42
- ClaudeVernier2
Re : Recherche de l'aide pour récupérer les données d'un NAS
Bonjour !
Merci geole pour ta réponse, j'ai dû me créer un second identifiant (ClaudeVernier2) pour me connecter et te répondre !
Le premier ne fonctionnait plus, j'ai contacté les administrateurs :-)
J'avais fournis un peu de ces informations dans mon premier message mais je les ais refait et les résultats sont plus bas.
La raison pour laquelle il n'y avait pas de "SDB" c'est que j'ai un PC avec Windows 10 avec deux disques, un SSD où j'ai Windows et mon dual boot et un autre de 6TO pour mes données. SDB et SDF. Je n'avais inclus que les disques qui avaient fait partie à un moment de mon NAS Synology.
~$ sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
SIZE NAME FSTYPE LABEL MOUNTPOINT
35,3M loop0 squashfs /snap/gtk-common-themes/1198
89,3M loop1 squashfs /snap/core/6673
151M loop2 squashfs /snap/gnome-3-28-1804/36
140,7M loop3 squashfs /snap/gnome-3-26-1604/82
2,3M loop4 squashfs /snap/gnome-calculator/260
14,8M loop5 squashfs /snap/gnome-characters/254
3,7M loop6 squashfs /snap/gnome-system-monitor/77
14,5M loop7 squashfs /snap/gnome-logs/45
3,7M loop8 squashfs /snap/gnome-system-monitor/57
34,6M loop9 squashfs /snap/gtk-common-themes/818
53,7M loop10 squashfs /snap/core18/941
140,7M loop11 squashfs /snap/gnome-3-26-1604/74
13M loop12 squashfs /snap/gnome-characters/139
4M loop13 squashfs /snap/gnome-calculator/406
1008K loop14 squashfs /snap/gnome-logs/61
91M loop15 squashfs /snap/core/6350
5,5T sda
2,4G ├─sda1 linux_raid_membe
2G ├─sda2 linux_raid_membe
2,7T ├─sda5 linux_raid_membe Impa:2
931,4G ├─sda6 linux_raid_membe Impa:3
931,4G │ └─md3 LVM2_member
1,8T └─sda7
447,1G sdb
500M ├─sdb1 ntfs Réservé au système
411,2G ├─sdb2 ntfs
474M ├─sdb3 ntfs
1K ├─sdb4
14,3G ├─sdb5 ext4 /
7,6G ├─sdb6 swap [SWAP]
13,1G └─sdb7 ext4 /home
2,7T sdc
2,4G ├─sdc1 linux_raid_membe
2G ├─sdc2 linux_raid_membe
2,7T └─sdc5 linux_raid_membe Impa:2
2,7T sdd
2,4G ├─sdd1 linux_raid_membe
2G ├─sdd2 linux_raid_membe
2,7T └─sdd5 linux_raid_membe Impa:2
3,7T sde
2,4G ├─sde1 linux_raid_membe
2G ├─sde2 linux_raid_membe
2,7T ├─sde5 linux_raid_membe Impa:2
931,4G └─sde6 linux_raid_membe Impa:3
931,4G └─md3 LVM2_member
5,5T sdf
5,5T └─sdf1 ntfs
~$ cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md3 : active raid1 sda6[1] sde6[0]
976646528 blocks super 1.2 [2/2] [UU]
unused devices: <none>
~$ sudo mdadm --detail /dev/md3
/dev/md3:
Version : 1.2
Creation Time : Mon Aug 27 20:08:31 2018
Raid Level : raid1
Array Size : 976646528 (931.40 GiB 1000.09 GB)
Used Dev Size : 976646528 (931.40 GiB 1000.09 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Wed Nov 21 23:47:09 2018
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
Name : Impa:3
UUID : 216bb0ff:a54f2520:756c7c1a:8916c2bd
Events : 2
Number Major Minor RaidDevice State
0 8 70 0 active sync /dev/sde6
1 8 6 1 active sync /dev/sda6
~$ sudo smartctl -s on -a /dev/sdb
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.18.0-21-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Device Model: KINGSTON SUV400S37480G
Serial Number: 50026B7767036FB1
LU WWN Device Id: 0 550380 440010000
Firmware Version: 0C3FD6SD
User Capacity: 480103981056 bytes [480 GB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Rotation Rate: Solid State Device
Form Factor: M.2
Device is: Not in smartctl database [for details use: -P showall]
ATA Version is: Unknown(0x0ffe), ATA8-ACS T13/1699-D revision 6
SATA Version is: SATA 3.1, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is: Mon Jun 17 23:16:38 2019 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: ( 5) seconds.
Offline data collection
capabilities: (0x71) SMART execute Offline immediate.
No Auto Offline data collection support.
Suspend Offline collection upon new
command.
No Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 5) minutes.
Conveyance self-test routine
recommended polling time: ( 0) minutes.
SCT capabilities: (0x003d) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 48
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 100 100 000 Pre-fail Always - 0
5 Reallocated_Sector_Ct 0x0033 100 100 010 Pre-fail Always - 0
9 Power_On_Hours 0x0032 100 100 000 Old_age Always - 12831
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 1206
100 Unknown_Attribute 0x0032 100 100 000 Old_age Always - 14762368
101 Unknown_Attribute 0x0032 100 100 000 Old_age Always - 1489344
170 Unknown_Attribute 0x0032 100 100 000 Old_age Always - 0
171 Unknown_Attribute 0x0032 100 100 000 Old_age Always - 0
172 Unknown_Attribute 0x0032 100 100 000 Old_age Always - 0
174 Unknown_Attribute 0x0032 100 100 000 Old_age Always - 161
175 Program_Fail_Count_Chip 0x0032 100 100 000 Old_age Always - 0
176 Erase_Fail_Count_Chip 0x0032 100 100 000 Old_age Always - 0
177 Wear_Leveling_Count 0x0032 092 092 000 Old_age Always - 2534
178 Used_Rsvd_Blk_Cnt_Chip 0x0002 100 100 000 Old_age Always - 0
180 Unused_Rsvd_Blk_Cnt_Tot 0x0002 100 100 000 Old_age Always - 2426
183 Runtime_Bad_Block 0x0032 099 099 000 Old_age Always - 17
187 Reported_Uncorrect 0x0033 100 100 000 Pre-fail Always - 0
194 Temperature_Celsius 0x0022 029 100 000 Old_age Always - 29 (Min/Max 16/38)
195 Hardware_ECC_Recovered 0x0032 100 100 000 Old_age Always - 0
196 Reallocated_Event_Count 0x0032 100 100 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 100 100 000 Old_age Always - 0
199 UDMA_CRC_Error_Count 0x0012 100 100 000 Old_age Always - 0
201 Unknown_SSD_Attribute 0x0032 100 100 000 Old_age Always - 0
204 Soft_ECC_Correction 0x0032 100 100 000 Old_age Always - 0
231 Temperature_Celsius 0x0032 093 093 000 Old_age Always - 7
233 Media_Wearout_Indicator 0x0032 100 100 000 Old_age Always - 25714
234 Unknown_Attribute 0x0032 100 100 000 Old_age Always - 8059
241 Total_LBAs_Written 0x0032 100 100 000 Old_age Always - 16888
242 Total_LBAs_Read 0x0032 100 100 000 Old_age Always - 20478
250 Read_Error_Retry_Rate 0x0032 100 100 000 Old_age Always - 0
SMART Error Log Version: 0
No Errors Logged
SMART Self-test log structure revision number 0
Warning: ATA Specification requires self-test log structure revision number = 1
No self-tests have been logged. [To run self-tests, use: smartctl -t]
SMART Selective self-test log data structure revision number 0
Note: revision number not 1 implies that no selective self-test has ever been run
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
~$ sudo smartctl -s on -a /dev/sdf
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.18.0-21-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Western Digital Blue
Device Model: WDC WD60EZRZ-00GZ5B1
Serial Number: WD-WX61D48RY5PV
LU WWN Device Id: 5 0014ee 2102bec39
Firmware Version: 80.00A80
User Capacity: 6001175126016 bytes [6,00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Rotation Rate: 5700 rpm
Device is: In smartctl database [for details use: -P show]
ATA Version is: ACS-2, ACS-3 T13/2161-D revision 3b
SATA Version is: SATA 3.1, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is: Mon Jun 17 23:18:25 2019 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x82) Offline data collection activity
was completed without error.
Auto Offline Data Collection: Enabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: ( 3824) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 692) minutes.
Conveyance self-test routine
recommended polling time: ( 5) minutes.
SCT capabilities: (0x3035) SCT Status supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 0
3 Spin_Up_Time 0x0027 198 197 021 Pre-fail Always - 9100
4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 486
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0
9 Power_On_Hours 0x0032 099 099 000 Old_age Always - 770
10 Spin_Retry_Count 0x0032 100 100 000 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 124
192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 18
193 Load_Cycle_Count 0x0032 196 196 000 Old_age Always - 13137
194 Temperature_Celsius 0x0022 122 117 000 Old_age Always - 30
196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0030 200 200 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0
200 Multi_Zone_Error_Rate 0x0008 200 200 000 Old_age Offline - 0
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
No self-tests have been logged. [To run self-tests, use: smartctl -t]
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
En espèrant que cela peut t'aider à comprendre le problème.
Merci,
Claude
Hors ligne
#6 Le 17/06/2019, à 23:43
- geole
Re : Recherche de l'aide pour récupérer les données d'un NAS
Bonsoir
J'ai demandé de l'aide. J'ai constaté que les partitions SDA6 et SDE6 sont récupérées par md3
$ sudo mdadm --detail /dev/md3
Number Major Minor RaidDevice State
0 8 70 0 active sync /dev/sde6
1 8 6 1 active sync /dev/sda6
Si j'élimine ce qui n'est pas raids (ainsi que sdb et sdf) , il reste à jongler avec cela
~$ sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
SIZE NAME FSTYPE LABEL MOUNTPOINT
5,5T sda
2,4G ├─sda1 linux_raid_membe
2G ├─sda2 linux_raid_membe
2,7T ├─sda5 linux_raid_membe Impa:2
2,7T sdc
2,4G ├─sdc1 linux_raid_membe
2G ├─sdc2 linux_raid_membe
2,7T └─sdc5 linux_raid_membe Impa:2
2,7T sdd
2,4G ├─sdd1 linux_raid_membe
2G ├─sdd2 linux_raid_membe
2,7T └─sdd5 linux_raid_membe Impa:2
3,7T sde
2,4G ├─sde1 linux_raid_membe
2G ├─sde2 linux_raid_membe
2,7T ├─sde5 linux_raid_membe Impa:2
A mon avis c'est une structure en RAID-5 de 4 disques de 3 Go qu'il faut rebâtir sachant que l'un des disques qui était deffectueux a été remplacé par un neuf.
Si tu avais une idée de qui est le nouveau (au moins sa taille) Comme à priori le SDA6 et SDE6 sont repartis . Bien qu'il y aurait pu y avoir remise en état
Il resterait SDC et SDD comme choix ???? .
$ sudo smartctl -s on -a /dev/sdc
=== START OF INFORMATION SECTION ===
Model Family: Western Digital Red
Device Model: WDC WD30EFRX-68AX9N0
Serial Number: WD-WCC1T1479436
9 Power_On_Hours 0x0032 088 088 000 Old_age Always - 9024
$ sudo smartctl -s on -a /dev/sdd
=== START OF INFORMATION SECTION ===
Model Family: Western Digital Red
Device Model: WDC WD30EFRX-68AX9N0
Serial Number: WD-WCC1T0656443
9 Power_On_Hours 0x0032 088 088 000 Old_age Always - 9265
Sachant que le SDA de 6 To
9 Power_On_Hours 0x0032 100 100 000 Old_age Always - 548
Sachant que le SDE de 4 To
9 Power_On_Hours 0x0032 098 098 000 Old_age Always - 1808
Dernière modification par geole (Le 17/06/2019, à 23:53)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#7 Le 18/06/2019, à 00:54
- jamesbad000
Re : Recherche de l'aide pour récupérer les données d'un NAS
Bonsoir,
Je compte potentiellement 4 volumes raid distinct constitué de partitions (et non de disques entiers).
Ca va prendre un peu de temps d'y voir clair la dedans. Et je n'aurais probablement pas de temps de m'y pencher avant qq jours...
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#8 Le 18/06/2019, à 07:38
- cqfd93
Re : Recherche de l'aide pour récupérer les données d'un NAS
Bonjour,
Merci geole pour ta réponse, j'ai dû me créer un second identifiant (ClaudeVernier2) pour me connecter et te répondre !
Le premier ne fonctionnait plus, j'ai contacté les administrateurs :-)
Bizarre, je n'ai vu aucune demande de ta part sur la liste de diffusion des admins.
Essaye déjà de récupérer un nouveau mot de passe avec le lien « Mot de passe oublié ? », tu devrais le recevoir sur ton adresse hotmail (celle que tu as utilisée pour ton compte ClaudeVernier) − Cherche aussi dans les spams / indésirables si tu ne le vois pas dans ta corbeille d'arrivée.
− cqfd93 −
Hors ligne
#9 Le 18/06/2019, à 10:07
- geole
Re : Recherche de l'aide pour récupérer les données d'un NAS
Bonsoir,
Je compte potentiellement 4 volumes raid distinct constitué de partitions (et non de disques entiers).
Ca va prendre un peu de temps d'y voir clair la dedans. Et je n'aurais probablement pas de temps de m'y pencher avant qq jours...
Merci de ta présence.
Pour Claudevernier
Après avoir regardé des discussions anciennes, il serait bon que tu donnes les retours de ces commandes
sudo mdadm --misc -E /dev/sda1 /dev/sdc1 /dev/sdd1 /dev/sde1
sudo mdadm --misc -E /dev/sda2 /dev/sdc2 /dev/sdd2 /dev/sde2
sudo mdadm --misc -E /dev/sda5 /dev/sdc5 /dev/sdd5 /dev/sde5
Ces commandes examinent individuellement les métadonnées raid de chaque partition.
Dernière modification par geole (Le 18/06/2019, à 10:11)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#10 Le 19/06/2019, à 22:08
- ClaudeVernier
Re : Recherche de l'aide pour récupérer les données d'un NAS
Bonjour,
ClaudeVernier2 a écrit :Merci geole pour ta réponse, j'ai dû me créer un second identifiant (ClaudeVernier2) pour me connecter et te répondre !
Le premier ne fonctionnait plus, j'ai contacté les administrateurs :-)Bizarre, je n'ai vu aucune demande de ta part sur la liste de diffusion des admins.
Essaye déjà de récupérer un nouveau mot de passe avec le lien « Mot de passe oublié ? », tu devrais le recevoir sur ton adresse hotmail (celle que tu as utilisée pour ton compte ClaudeVernier) − Cherche aussi dans les spams / indésirables si tu ne le vois pas dans ta corbeille d'arrivée.
Bonjour,
Merci ! En fait, c'est de ma faute... Je n'avais pas compris qu'il fallait d'abord cliquer sur le lien pour activer le nouveau mot de passe... pourtant c'était évident et standard... désolé.. :-)
Hors ligne
#11 Le 19/06/2019, à 22:16
- ClaudeVernier
Re : Recherche de l'aide pour récupérer les données d'un NAS
jamesbad000 a écrit :Bonsoir,
Je compte potentiellement 4 volumes raid distinct constitué de partitions (et non de disques entiers).
Ca va prendre un peu de temps d'y voir clair la dedans. Et je n'aurais probablement pas de temps de m'y pencher avant qq jours...Merci de ta présence.
Pour Claudevernier
Après avoir regardé des discussions anciennes, il serait bon que tu donnes les retours de ces commandessudo mdadm --misc -E /dev/sda1 /dev/sdc1 /dev/sdd1 /dev/sde1
sudo mdadm --misc -E /dev/sda2 /dev/sdc2 /dev/sdd2 /dev/sde2
sudo mdadm --misc -E /dev/sda5 /dev/sdc5 /dev/sdd5 /dev/sde5
Ces commandes examinent individuellement les métadonnées raid de chaque partition.
Merci de vos messages, j'ai préparé une réponse aux différents points:
il faut rebâtir sachant que l'un des disques qui était défectueux a été remplacé par un neuf
Effectivement mon NAS était constitué au départ de 2 disques
- 2.73 To
- 2.73 To
Lorsqu'un des deux est tombé en panne, j'ai remplacé un 2.73 To par 3.64 To
Plus tard, j'ai ajouté :
- 6 To
J'avais laissé le 2.73 To défectueux dans le NAS sans l'inclure dans la grappe, du moins autant que je me souvienne et sans être certains du sens de "grappe"...
Il faudrait donc que je sache quel 2.73 To est le plus ancien.
J'ai comparé les informations entre les deux et j'ai trouvé ces différences:
/dev/sdc5: device 0 in 2 device inactive raid1 array.
Raid Level : raid1
Raid Devices : 2
Array Size : 2925531648 (2790.00 GiB 2995.74 GB)
Device Role : Active device 0
Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdd5: device 1 in 3 device inactive raid5 array.
Raid Level : raid5
Raid Devices : 3
Array Size : 5851063296 (5580.01 GiB 5991.49 GB)
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 1
Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)
Les deux array state me donne l'impression que le sdc est le plus ancien.
Je lance maintenant les commandes demandées:
~$ sudo mdadm --misc -E /dev/sda1 /dev/sdc1 /dev/sdd1 /dev/sde1
[sudo] Mot de passe de lordofhyrule :
mdadm: No md superblock detected on /dev/sda1.
mdadm: No md superblock detected on /dev/sdc1.
mdadm: No md superblock detected on /dev/sdd1.
mdadm: No md superblock detected on /dev/sde1.
~$ sudo mdadm --misc -E /dev/sda2 /dev/sdc2 /dev/sdd2 /dev/sde2
mdadm: No md superblock detected on /dev/sda2.
mdadm: No md superblock detected on /dev/sdc2.
mdadm: No md superblock detected on /dev/sdd2.
mdadm: No md superblock detected on /dev/sde2.
~$ sudo mdadm --misc -E /dev/sda5 /dev/sdc5 /dev/sdd5 /dev/sde5
/dev/sda5:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : a6ffe45c:9b35a893:36b08cd9:58d31f60
Name : Impa:2
Creation Time : Fri Sep 27 08:36:12 2013
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 5851063680 (2790.00 GiB 2995.74 GB)
Array Size : 5851063296 (5580.01 GiB 5991.49 GB)
Used Dev Size : 5851063296 (2790.00 GiB 2995.74 GB)
Data Offset : 2048 sectors
Super Offset : 8 sectors
Unused Space : before=1968 sectors, after=384 sectors
State : clean
Device UUID : e0eb2eb1:f05dc775:6ee46cef:e38893c2
Update Time : Sun Apr 7 21:13:34 2019
Checksum : 2fc59dc5 - correct
Events : 814581
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 2
Array State : ..A ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdc5:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : a6ffe45c:9b35a893:36b08cd9:58d31f60
Name : Impa:2
Creation Time : Fri Sep 27 08:36:12 2013
Raid Level : raid1
Raid Devices : 2
Avail Dev Size : 5851063296 (2790.00 GiB 2995.74 GB)
Array Size : 2925531648 (2790.00 GiB 2995.74 GB)
Data Offset : 2048 sectors
Super Offset : 8 sectors
Unused Space : before=1968 sectors, after=384 sectors
State : clean
Device UUID : aba910b9:c8a5c6ad:551bee87:2fa688b8
Update Time : Sun Apr 7 21:10:56 2019
Checksum : 449f2cb5 - correct
Events : 700479
Device Role : Active device 0
Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdd5:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : a6ffe45c:9b35a893:36b08cd9:58d31f60
Name : Impa:2
Creation Time : Fri Sep 27 08:36:12 2013
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 5851063296 (2790.00 GiB 2995.74 GB)
Array Size : 5851063296 (5580.01 GiB 5991.49 GB)
Data Offset : 2048 sectors
Super Offset : 8 sectors
Unused Space : before=1968 sectors, after=384 sectors
State : clean
Device UUID : 328033b9:27927c97:690b30f2:ea6e1466
Update Time : Sun Apr 7 21:27:00 2019
Checksum : ffc576f0 - correct
Events : 815089
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 1
Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sde5:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : a6ffe45c:9b35a893:36b08cd9:58d31f60
Name : Impa:2
Creation Time : Fri Sep 27 08:36:12 2013
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 5851063680 (2790.00 GiB 2995.74 GB)
Array Size : 5851063296 (5580.01 GiB 5991.49 GB)
Used Dev Size : 5851063296 (2790.00 GiB 2995.74 GB)
Data Offset : 2048 sectors
Super Offset : 8 sectors
Unused Space : before=1968 sectors, after=384 sectors
State : clean
Device UUID : 4d27b71d:25bb1ff1:071f3044:1a487bbb
Update Time : Sun Apr 7 21:21:50 2019
Checksum : 65503423 - correct
Events : 815089
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 0
Array State : A.A ('A' == active, '.' == missing, 'R' == replacing)
Encore merci,
Claude
Hors ligne
#12 Le 19/06/2019, à 23:53
- jamesbad000
Re : Recherche de l'aide pour récupérer les données d'un NAS
Donc les partions 1 et 2 ne sont pas identifiées en tant que raid par mdadm, alors qu'elles le sont par lsblk. Etrange, mais laissons ça de coté pour le moment
Sur le lot de partitions sd[acde]5 il y a sdc qui est un intrus en raid1 (mais avec le même array UUID que les 3 autres...)
reste donc sd[ade]5 qui pourraient aller ensemble sachant que sd[de]5 sont synchronisés (même nombre d'évènements) mais pas sda5.
Le tiercé gagnant devrait être e, d, a (cf device role) mais je sens que ça ne vas pas se passer tout seul. La suite demain avec un peu de chance...
Dernière modification par jamesbad000 (Le 22/06/2019, à 12:27)
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#13 Le 22/06/2019, à 12:48
- jamesbad000
Re : Recherche de l'aide pour récupérer les données d'un NAS
Bon. Tentons pour commencer un assemblage "en douceur" avec
sudo mdadm --stop /dev/md0
sudo mdadm --assemble -v /dev/md0 /dev/sd[ade]5
Dernière modification par jamesbad000 (Le 22/06/2019, à 12:51)
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#14 Le 22/06/2019, à 15:16
- ClaudeVernier
Re : Recherche de l'aide pour récupérer les données d'un NAS
Bonjour !
Merci !!! Est-ce que je devrais arrêter le md3 aussi ?
Voici le résultat :
~$ sudo mdadm --stop /dev/md0
mdadm: error opening /dev/md0: No such file or directory
~$ sudo mdadm --assemble -v /dev/md0 /dev/sd[ade]5
mdadm: looking for devices for /dev/md0
mdadm: /dev/sda5 is identified as a member of /dev/md0, slot 2.
mdadm: /dev/sdd5 is identified as a member of /dev/md0, slot 1.
mdadm: /dev/sde5 is identified as a member of /dev/md0, slot 0.
mdadm: ignoring /dev/sde5 as it reports /dev/sdd5 as failed
mdadm: ignoring /dev/sda5 as it reports /dev/sdd5 as failed
mdadm: no uptodate device for slot 0 of /dev/md0
mdadm: no uptodate device for slot 2 of /dev/md0
mdadm: added /dev/sdd5 to /dev/md0 as 1
mdadm: /dev/md0 assembled from 1 drive - not enough to start the array.
Claude
Hors ligne
#15 Le 22/06/2019, à 15:54
- jamesbad000
Re : Recherche de l'aide pour récupérer les données d'un NAS
Est-ce que je devrais arrêter le md3 aussi ?
Non. On arrête md0 uniquement pour s'assurer qu'il est disponible.
Au reste, la réponse de mdadm est cohérente avec les statuts de chaque partitions. donc il va falloir forcer
sudo mdadm --stop /dev/md0
sudo mdadm --assemble -v --force /dev/md0 /dev/sd[ade]5
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#16 Le 22/06/2019, à 15:58
- ClaudeVernier
Re : Recherche de l'aide pour récupérer les données d'un NAS
Super ! Ca avance !!
~$ sudo mdadm --stop /dev/md0
mdadm: error opening /dev/md0: No such file or directory
~$ sudo mdadm --assemble -v --force /dev/md0 /dev/sd[ade]5
mdadm: looking for devices for /dev/md0
mdadm: /dev/sda5 is identified as a member of /dev/md0, slot 2.
mdadm: /dev/sdd5 is identified as a member of /dev/md0, slot 1.
mdadm: /dev/sde5 is identified as a member of /dev/md0, slot 0.
mdadm: clearing FAULTY flag for device 1 in /dev/md0 for /dev/sdd5
mdadm: Marking array /dev/md0 as 'clean'
mdadm: added /dev/sdd5 to /dev/md0 as 1
mdadm: added /dev/sda5 to /dev/md0 as 2 (possibly out of date)
mdadm: added /dev/sde5 to /dev/md0 as 0
mdadm: /dev/md0 has been started with 2 drives (out of 3).
:-)
Hors ligne
#17 Le 22/06/2019, à 16:18
- jamesbad000
Re : Recherche de l'aide pour récupérer les données d'un NAS
J'aimerais voir le statut a ce stade
sudo mdadm -D /dev/md0
puis on refait une tentative avec resynchro
sudo mdadm --stop /dev/md0
sudo mdadm --assemble -v --update=resync /dev/md0 /dev/sd[ade]5
sudo mdadm -D /dev/md0
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#18 Le 22/06/2019, à 16:24
- ClaudeVernier
Re : Recherche de l'aide pour récupérer les données d'un NAS
Voilà le statut :
/dev/md0:
Version : 1.2
Creation Time : Fri Sep 27 08:36:12 2013
Raid Level : raid5
Array Size : 5851063296 (5580.01 GiB 5991.49 GB)
Used Dev Size : 2925531648 (2790.00 GiB 2995.74 GB)
Raid Devices : 3
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Apr 7 21:21:50 2019
State : clean, degraded
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Consistency Policy : resync
Name : Impa:2
UUID : a6ffe45c:9b35a893:36b08cd9:58d31f60
Events : 815089
Number Major Minor RaidDevice State
2 8 69 0 active sync /dev/sde5
1 8 53 1 active sync /dev/sdd5
- 0 0 2 removed
Ensuite j'ai lancé la première commande:
~$ sudo mdadm --stop /dev/md0
mdadm: Cannot get exclusive access to /dev/md0:Perhaps a running process, mounted filesystem or active volume group?
Je n'ai pas tenté la seconde car le message n'a pas l'air très bon..
Dernière modification par ClaudeVernier (Le 22/06/2019, à 16:25)
Hors ligne
#19 Le 22/06/2019, à 16:32
- jamesbad000
Re : Recherche de l'aide pour récupérer les données d'un NAS
Comme il y a assez de composant pour utiliser le raid, le système de fichier a vraisemblablement été monté...
Pas grave, plutôt que s'embêter à tout défaire, comme le 3ème disque est marqué comme "retiré" on va l'ajouter directement avec
sudo mdadm -v /dev/md0 --add /dev/sda5
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#20 Le 22/06/2019, à 16:38
- ClaudeVernier
Re : Recherche de l'aide pour récupérer les données d'un NAS
Voilà :
~$ sudo mdadm -v /dev/md0 --add /dev/sda5
mdadm: added /dev/sda5
Du coup, je ne fais pas ?
sudo mdadm --assemble -v --update=resync /dev/md0 /dev/sd[ade]5
sudo mdadm -D /dev/md0
Effectivement, /dev/dm-0 est monté !
Il reste autre chose ?
Merci !
Hors ligne
#21 Le 22/06/2019, à 16:43
- jamesbad000
Re : Recherche de l'aide pour récupérer les données d'un NAS
Non en principe l'affaire est réglé. Il est probable qu'il est en train de resynchroniser le disque ajouté. Tu peux toujours vérifier le statut avec
sudo mdadm -D /dev/md0
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#22 Le 22/06/2019, à 16:48
- ClaudeVernier
Re : Recherche de l'aide pour récupérer les données d'un NAS
Génial !!
/dev/md0:
Version : 1.2
Creation Time : Fri Sep 27 08:36:12 2013
Raid Level : raid5
Array Size : 5851063296 (5580.01 GiB 5991.49 GB)
Used Dev Size : 2925531648 (2790.00 GiB 2995.74 GB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Sat Jun 22 17:42:11 2019
State : clean, degraded, recovering
Active Devices : 2
Working Devices : 3
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 64K
Consistency Policy : resync
Rebuild Status : 2% complete
Name : Impa:2
UUID : a6ffe45c:9b35a893:36b08cd9:58d31f60
Events : 815160
Number Major Minor RaidDevice State
2 8 69 0 active sync /dev/sde5
1 8 53 1 active sync /dev/sdd5
3 8 5 2 spare rebuilding /dev/sda5
J'avais prévu un 6To sur la partie Windows 10, en NTFS, pour copier tout ce que je pouvais récupérer faire le ménage, formater les disques et les remettre dans le NAS.
Il est préférable que j'attende que le Rebuild Status = 100%
Ensuite, je peux monter le disque de 6To et voir son contenu mais je ne peux pas y écrire pour ensuite tout retrouver sous Windows... Tu peux m'aider ?
Encore merci,
Claude
Hors ligne
#23 Le 22/06/2019, à 16:59
- jamesbad000
Re : Recherche de l'aide pour récupérer les données d'un NAS
Il est préférable que j'attende que le Rebuild Status = 100%
Rien n'empêche de travailler pendant qu'il reconstruit :
Le raid est entre autre une solution de haute disponibilité => Pas d'interruption de service pour un seul disque en panne
En revanche et contrairement à ce que beaucoup pensent, ce n'est PAS une solution de sauvegarde !
Ensuite, je peux monter le disque de 6To et voir son contenu mais je ne peux pas y écrire pour ensuite tout retrouver sous Windows... Tu peux m'aider ?
Tu ne peux pas écrire. Mais encore ? Il y une erreur de type "non autorisé..."
Dernière modification par jamesbad000 (Le 22/06/2019, à 17:02)
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#24 Le 22/06/2019, à 17:14
- ClaudeVernier
Re : Recherche de l'aide pour récupérer les données d'un NAS
Je pensais au départ effectivement que c'était pour de la sauvegarde et c'est ma seconde panne, mais je vais tout de même continuer de l'utiliser, il me sert aussi à accéder à mes vidéos et la musique...
Lorsque je copie un fichier de dev/dm-0, j’essaie de le coller sur le disque NTFS et l'option "coller" est grisé.
J'ai tenté le drag & drop mais le fichier revient vers la source
J'ai tenté "copier vers" et j'ai ce message: "la destination est en lecture seule"
Merci,
Claude
Je comprends bien le message mais je ne sais pas quoi faire, j'avais tenté d'accorder full control à everyone depuis Windows mais il me semble que ça n'avait pas aidé.
Hors ligne
#25 Le 22/06/2019, à 17:41
- jamesbad000
Re : Recherche de l'aide pour récupérer les données d'un NAS
j'avais tenté d'accorder full control à everyone depuis Windows mais il me semble que ça n'avait pas aidé.
Effectivement c'est sans effet, car linux ne connait rien à la gestion de droit NTFS. linux attribut des droits d'accès globalement à tous les fichiers dans une partition NTFS donnée
Mais "la destination est en lecture seule" c'est un autre problème.
que donnes
sudo mount -v /dev/sdf1 /mnt
Dernière modification par jamesbad000 (Le 22/06/2019, à 17:41)
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne