Pages : 1
#1 Le 21/06/2023, à 18:59
- Veemon
[Non résolu] RAID5 qui ne démarre pas
Update : Non-résolu : --> recréation du RAID5 et application de la sauvegarde des données (faite en amont du problème)
Bonjour,
J’ai un RAID5, géré par mdadm, qui suite à un redémarrage du serveur ne démarre plus…
J’ai tenter de le réassembler avec :
mdadm -v --assemble --readonly --force /dev/md0 /dev/sda1 /dev/sdc1 /dev/sde1
mdadm: looking for devices for /dev/md0
mdadm: no recogniseable superblock on /dev/sda1
mdadm: /dev/sda1 has no superblock - assembly aborted
Et j’ai eu un problème de superbloc. J’ai lancé des fsck :
root@:~>fsck -v -f /dev/sda1
fsck from util-linux 2.33.1
e2fsck 1.44.5 (15-Dec-2018)
ext2fs_open2: Bad magic number in super-block
fsck.ext2: Superblock invalid, trying backup blocks...
fsck.ext2: Bad magic number in super-block while trying to open /dev/sda1
The superblock could not be read or does not describe a valid ext2/ext3/ext4
filesystem. If the device is valid and it really contains an ext2/ext3/ext4
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
e2fsck -b 8193 <device>
or
e2fsck -b 32768 <device>
root@:~>fsck -v -f /dev/sdc1
fsck from util-linux 2.33.1
e2fsck 1.44.5 (15-Dec-2018)
ext2fs_open2: Bad magic number in super-block
fsck.ext2: Superblock invalid, trying backup blocks...
fsck.ext2: Bad magic number in super-block while trying to open /dev/sdc1
The superblock could not be read or does not describe a valid ext2/ext3/ext4
filesystem. If the device is valid and it really contains an ext2/ext3/ext4
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
e2fsck -b 8193 <device>
or
e2fsck -b 32768 <device>
root@:~>fsck -v -f /dev/sde1
fsck from util-linux 2.33.1
e2fsck 1.44.5 (15-Dec-2018)
Superblock has an invalid journal (inode 8).
Clear<y>? cancelled!
fsck.ext4: The journal superblock is corrupt while checking journal for /dev/sde1
e2fsck: Cannot proceed with file system check
/dev/sde1: ********** WARNING: Filesystem still has errors **********
Suivi par un fsck -v -ly /dev/sde1 pour tenter de réparer le disque…
À la fin de la commande j’obtients :
/dev/sde1: ***** FILE SYSTEM WAS MODIFIED *****
15 inodes used (0.00%, out of 122101760)
0 non-contiguous files (0.0%)
0 non-contiguous directories (0.0%)
# of inodes with ind/dind/tind blocks: 81/80/80
Extent depth histogram: 1
7685075 blocks used (1.57%, out of 488378368)
0 bad blocks
1 large file
0 regular files
1 directory
1 character device file
1 block device file
1 fifo
0 links
0 symbolic links (0 fast symbolic links)
1 socket
------------
1 file
Je tente un nouvel assemblage :
mdadm -v --assemble --readonly --force /dev/md0 /dev/sda1 /dev/sdc1 /dev/sde1
mdadm: looking for devices for /dev/md0
mdadm: no recogniseable superblock on /dev/sda1
mdadm: /dev/sda1 has no superblock - assembly aborted
Je tente de créer la grappe :
mdadm --create /dev/md0 --level=5 --raid-devices=3 /dev/sda1 /dev/sdc1 /dev/sde1
mdadm: /dev/sde1 appears to contain an ext2fs file system
size=1953513472K mtime=Sat Oct 2 16:59:42 2021
Continue creating array? yes
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
Je surveille la resynchro :
cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sde1[3] sdc1[1] sda1[0]
3906762752 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [UU_]
[>....................] recovery = 0.0% (1820060/1953381376) finish=250.1min speed=130004K/sec
bitmap: 0/15 pages [0KB], 65536KB chunk
unused devices: <none>
Et vers la fin le nombre de disque passe à 3/1[U__] !
À la fin de la recréation :
mdadm -E /dev/md0
mdadm: No md superblock detected on /dev/md0.
Je décide de redémarrer le serveur pour voir ce qui a changé.
Le RAID n’est pas réapparu.
J’ai toujours des number in super-block avec nfsck.ext4 /dev/sd[ace]1
Bad magic nfsck.ext4 /dev/sdX1
e2fsck 1.44.5 (15-Dec-2018)
ext2fs_open2: Bad magic number in super-block
J’ai essayé de monter le RAID à la main :
mount /dev/md0 /tmp/test/
mount: /tmp/test: wrong fs type, bad option, bad superblock on /dev/md0, missing codepage or helper program, or other error.
D’essayer de le démarrer manuellement j’ai cette erreur :
mdadm --manage /dev/md0 --run
mdadm: failed to start array /dev/md/0: Input/output error
Et lorsque je demande un détail de mdadm :
mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Wed Jun 21 16:40:23 2023
Raid Level : raid5
Used Dev Size : 1953381376 (1862.89 GiB 2000.26 GB)
Raid Devices : 3
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Wed Jun 21 17:26:55 2023
State : active, FAILED, Not Started
Active Devices : 1
Working Devices : 2
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : unknown
Name : tonioserveur:0 (local to host tonioserveur)
UUID : 6aabd0b8:693906fd:81fa0fad:44f89399
Events : 3027
Number Major Minor RaidDevice State
- 0 0 0 removed
- 0 0 1 removed
- 0 0 2 removed
- 8 1 0 sync /dev/sda1
- 8 65 2 spare rebuilding /dev/sde1
Suivi par un :
mdadm -E /dev/sd[ace]1
/dev/sda1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 6aabd0b8:693906fd:81fa0fad:44f89399
Name : tonioserveur:0 (local to host tonioserveur)
Creation Time : Wed Jun 21 16:40:23 2023
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 3906762895 (1862.89 GiB 2000.26 GB)
Array Size : 3906762752 (3725.78 GiB 4000.53 GB)
Used Dev Size : 3906762752 (1862.89 GiB 2000.26 GB)
Data Offset : 264192 sectors
Super Offset : 8 sectors
Unused Space : before=264112 sectors, after=143 sectors
State : clean
Device UUID : 223be693:d83133c7:49173e09:51711a75
Internal Bitmap : 8 sectors from superblock
Update Time : Wed Jun 21 17:26:55 2023
Bad Block Log : 512 entries available at offset 16 sectors
Checksum : 684dc068 - correct
Events : 3027
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 0
Array State : A.A ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdc1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 6aabd0b8:693906fd:81fa0fad:44f89399
Name : tonioserveur:0 (local to host tonioserveur)
Creation Time : Wed Jun 21 16:40:23 2023
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 3906762895 (1862.89 GiB 2000.26 GB)
Array Size : 3906762752 (3725.78 GiB 4000.53 GB)
Used Dev Size : 3906762752 (1862.89 GiB 2000.26 GB)
Data Offset : 264192 sectors
Super Offset : 8 sectors
Unused Space : before=264112 sectors, after=143 sectors
State : clean
Device UUID : 1277d788:5b07153e:8aec7955:a07e79f7
Internal Bitmap : 8 sectors from superblock
Update Time : Wed Jun 21 17:25:04 2023
Bad Block Log : 512 entries available at offset 16 sectors
Checksum : a2beaa2d - correct
Events : 516
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 1
Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sde1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0xb
Array UUID : 6aabd0b8:693906fd:81fa0fad:44f89399
Name : tonioserveur:0 (local to host tonioserveur)
Creation Time : Wed Jun 21 16:40:23 2023
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 3906762895 (1862.89 GiB 2000.26 GB)
Array Size : 3906762752 (3725.78 GiB 4000.53 GB)
Used Dev Size : 3906762752 (1862.89 GiB 2000.26 GB)
Data Offset : 264192 sectors
Super Offset : 8 sectors
Recovery Offset : 712209760 sectors
Unused Space : before=264112 sectors, after=143 sectors
State : clean
Device UUID : 5096fa79:149b242e:cc3c5ef5:300c6dbc
Internal Bitmap : 8 sectors from superblock
Update Time : Wed Jun 21 17:26:55 2023
Bad Block Log : 512 entries available at offset 16 sectors - bad blocks present.
Checksum : 1339baa2 - correct
Events : 3027
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 2
Array State : A.A ('A' == active, '.' == missing, 'R' == replacing)
Et aussi pour info :
cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md0 : inactive sda1[0] sde1[3]
3906762895 blocks super 1.2
unused devices: <none>
Et à ce niveau je suis perdu…
Pour moi le sdc aurait un souci, mais il est en Array state AAA, là où les autres sont en A.A…
Concernant la santé des disques :
sda :
smartctl -d ata -a /dev/sda
smartctl 6.6 2017-11-05 r4594 [x86_64-linux-4.19.0-24-amd64] (local build)
Copyright (C) 2002-17, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Western Digital Blue
Device Model: WDC WD20EZRZ-00Z5HB0
Serial Number: WD-WCC4M1HSV1CH
LU WWN Device Id: 5 0014ee 20d260d0c
Firmware Version: 80.00A80
User Capacity: 2000398934016 bytes [2,00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Rotation Rate: 5400 rpm
Device is: In smartctl database [for details use: -P show]
ATA Version is: ACS-2 (minor revision not indicated)
SATA Version is: SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is: Wed Jun 21 15:57:36 2023 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x84) Offline data collection activity
was suspended by an interrupting command from host.
Auto Offline Data Collection: Enabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: (25800) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 261) minutes.
Conveyance self-test routine
recommended polling time: ( 5) minutes.
SCT capabilities: (0x7035) SCT Status supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 1
3 Spin_Up_Time 0x0027 181 172 021 Pre-fail Always - 3916
4 Start_Stop_Count 0x0032 096 096 000 Old_age Always - 4874
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0
9 Power_On_Hours 0x0032 027 027 000 Old_age Always - 53324
10 Spin_Retry_Count 0x0032 100 100 000 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 99
192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 64
193 Load_Cycle_Count 0x0032 001 001 000 Old_age Always - 2703373
194 Temperature_Celsius 0x0022 102 097 000 Old_age Always - 45
196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 1
198 Offline_Uncorrectable 0x0030 200 200 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0
200 Multi_Zone_Error_Rate 0x0008 200 200 000 Old_age Offline - 1
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
No self-tests have been logged. [To run self-tests, use: smartctl -t]
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
sdc
smartctl -d ata -a /dev/sdc
smartctl 6.6 2017-11-05 r4594 [x86_64-linux-4.19.0-24-amd64] (local build)
Copyright (C) 2002-17, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Western Digital Blue
Device Model: WDC WD20EZRZ-22Z5HB0
Serial Number: WD-WCC4M5LUXSYV
LU WWN Device Id: 5 0014ee 212ea8c46
Firmware Version: 80.00A80
User Capacity: 2000398934016 bytes [2,00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Rotation Rate: 5400 rpm
Device is: In smartctl database [for details use: -P show]
ATA Version is: ACS-2 (minor revision not indicated)
SATA Version is: SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is: Wed Jun 21 16:02:13 2023 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x82) Offline data collection activity
was completed without error.
Auto Offline Data Collection: Enabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: (28320) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 285) minutes.
Conveyance self-test routine
recommended polling time: ( 5) minutes.
SCT capabilities: (0x7035) SCT Status supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 0
3 Spin_Up_Time 0x0027 184 176 021 Pre-fail Always - 3791
4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 44
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0
9 Power_On_Hours 0x0032 084 083 000 Old_age Always - 11759
10 Spin_Retry_Count 0x0032 100 253 000 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 100 253 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 44
192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 26
193 Load_Cycle_Count 0x0032 001 001 000 Old_age Always - 793625
194 Temperature_Celsius 0x0022 107 102 000 Old_age Always - 40
196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0030 200 200 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0
200 Multi_Zone_Error_Rate 0x0008 200 200 000 Old_age Offline - 0
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
No self-tests have been logged. [To run self-tests, use: smartctl -t]
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
sde
smartctl -d ata -a /dev/sde
smartctl 6.6 2017-11-05 r4594 [x86_64-linux-4.19.0-24-amd64] (local build)
Copyright (C) 2002-17, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Device Model: ST2000DM005-2CW102
Serial Number: ZFM1ZE1Y
LU WWN Device Id: 5 000c50 0c7d09e03
Firmware Version: 0001
User Capacity: 2000398934016 bytes [2,00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Rotation Rate: 5425 rpm
Form Factor: 3.5 inches
Device is: Not in smartctl database [for details use: -P showall]
ATA Version is: ACS-3 T13/2161-D revision 5
SATA Version is: SATA 3.1, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is: Wed Jun 21 16:05:21 2023 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: ( 0) seconds.
Offline data collection
capabilities: (0x73) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
No Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 1) minutes.
Extended self-test routine
recommended polling time: ( 252) minutes.
Conveyance self-test routine
recommended polling time: ( 2) minutes.
SCT capabilities: (0x30a5) SCT Status supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x000f 083 064 006 Pre-fail Always - 215966124
3 Spin_Up_Time 0x0003 099 099 000 Pre-fail Always - 0
4 Start_Stop_Count 0x0032 100 100 020 Old_age Always - 16
5 Reallocated_Sector_Ct 0x0033 100 100 010 Pre-fail Always - 0
7 Seek_Error_Rate 0x000f 086 060 045 Pre-fail Always - 388182955
9 Power_On_Hours 0x0032 080 080 000 Old_age Always - 18360 (123 42 0)
10 Spin_Retry_Count 0x0013 100 100 097 Pre-fail Always - 0
12 Power_Cycle_Count 0x0032 100 100 020 Old_age Always - 16
183 Runtime_Bad_Block 0x0032 100 100 000 Old_age Always - 0
184 End-to-End_Error 0x0032 100 100 099 Old_age Always - 0
187 Reported_Uncorrect 0x0032 100 100 000 Old_age Always - 0
188 Command_Timeout 0x0032 100 100 000 Old_age Always - 0
189 High_Fly_Writes 0x003a 100 100 000 Old_age Always - 0
190 Airflow_Temperature_Cel 0x0022 057 053 040 Old_age Always - 43 (Min/Max 33/47)
191 G-Sense_Error_Rate 0x0032 100 100 000 Old_age Always - 0
192 Power-Off_Retract_Count 0x0032 100 100 000 Old_age Always - 687
193 Load_Cycle_Count 0x0032 099 099 000 Old_age Always - 2143
194 Temperature_Celsius 0x0022 043 047 000 Old_age Always - 43 (0 24 0 0 0)
195 Hardware_ECC_Recovered 0x001a 083 064 000 Old_age Always - 215966124
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0010 100 100 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x003e 200 200 000 Old_age Always - 0
240 Head_Flying_Hours 0x0000 100 253 000 Old_age Offline - 17879 (77 164 0)
241 Total_LBAs_Written 0x0000 100 253 000 Old_age Offline - 38729731044
242 Total_LBAs_Read 0x0000 100 253 000 Old_age Offline - 57216322356
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
No self-tests have been logged. [To run self-tests, use: smartctl -t]
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
Pour info sdb est un disque à part et monté en dehors du raid (ok soucis) et mon système est monté sur sdf. Et j’ai également une sauvegarde de mon raid sur un autre disque (mais qui remonte au 1er juin…
*****
J’espère que geole passera dans le coin, il m’a bien dépanné d’une autre erreur de RAID5 il y a 2 ans (https://forum.ubuntu-fr.org/viewtopic.php?id=2063066)
Dernière modification par Veemon (Le 12/07/2023, à 18:31)
Hors ligne
#2 Le 21/06/2023, à 19:36
- geole
Re : [Non résolu] RAID5 qui ne démarre pas
Bonjour.
Je suis en train de lire et tenter de comprendre la cause initiale.
Je pense que c'est SDA avec un secteur illisible qui a empêché le redemarrage
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 1
Mais tu as fais pas mal de choses après.... dont il faudra que je comprenne.
Je note avec plaisir que tu as une sauvegarde...
Pour info, tes trois partitions sont dans un raids.
On ne fait pas trois fsck des partitions mais un seul fsck /dev/md0
Pour la suite, j'hésite entre tenter de démarrer le raids ou déja dupliquer sda avec ddrescue dans un nouveau disque.
Je viens de relire l'ancienne discussion.......les fsck m'avaient pas fonctionné.
On sait que le recovery a passé. donc il est probable que SDA1 ait été modifié et lorsque je vois cela
mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Wed Jun 21 16:40:23 2023
Raid Level : raid5
Used Dev Size : 1953381376 (1862.89 GiB 2000.26 GB)
Raid Devices : 3
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Wed Jun 21 17:26:55 2023
State : active, FAILED, Not Started
Active Devices : 1
Working Devices : 2
Failed Devices : 0
Spare Devices : 1
Je comprends que le raids est composé de trois disques dont un spare. Il en reste donc 2, on devrait pouvoir cependant booter.
Dernière modification par geole (Le 21/06/2023, à 21:50)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#3 Le 21/06/2023, à 21:09
- geole
Re : [Non résolu] RAID5 qui ne démarre pas
mdadm --detail /dev/md0
/dev/md0:
Creation Time : Wed Jun 21 16:40:23 2023
Used Dev Size : 1953381376 (1862.89 GiB 2000.26 GB)
Raid Devices : 3
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Wed Jun 21 17:26:55 2023
State : active, FAILED, Not Started
Active Devices : 1
Working Devices : 2
Failed Devices : 0
Spare Devices : 1
Events : 3027
Number Major Minor RaidDevice State
- 0 0 0 removed
- 0 0 1 removed
- 0 0 2 removed
- 8 1 0 sync /dev/sda1
- 8 65 2 spare rebuilding /dev/sde1
Le détail de mdadm arrive un peu tard mais il explique pourquoi, il a été refusé au montage.
mdadm -E /dev/sd[ace]1
/dev/sda1:
Creation Time : Wed Jun 21 16:40:23 2023
Update Time : Wed Jun 21 17:26:55 2023
Events : 3027
Device Role : Active device 0
Array State : A.A ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdc1
Creation Time : Wed Jun 21 16:40:23 2023
Update Time : Wed Jun 21 17:25:04 2023
Events : 516
Device Role : Active device 1
Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sde1:
Creation Time : Wed Jun 21 16:40:23 2023
Raid Devices : 3
Update Time : Wed Jun 21 17:26:55 2023
Events : 3027
Device Role : Active device 2
Array State : A.A ('A' == active, '.' == missing, 'R' == replacing)
Les partitions SDA1 et SDD1 sont à l'évènement 3027 alors que SDC1 est à l'évènement 516. Donc un sacré retard à l'allumage. Je ne peux pas savoir depuis quand.
Il est donc passé en spare assez naturellement pour être reconstruit.
Maintenant, il y a probablement qu'un seul disque émetteur car SDA1 est en mauvais état.
Je confirme l'achat d'un disque et la duplication par ddrescue de SDA
Pour enquêter, peux-tu donner ces retours.
journalctl --no-pager -g sdc
journalctl --no-pager -b -g sda
Dernière modification par geole (Le 21/06/2023, à 21:48)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#4 Le 21/06/2023, à 22:13
- Veemon
Re : [Non résolu] RAID5 qui ne démarre pas
Bonsoir geole,
Merci pour tes réponses. J’ai commandé un nouveau disque cette après-midi.
Pour fsck :
fsck /dev/md0
fsck from util-linux 2.33.1
e2fsck 1.44.5 (15-Dec-2018)
fsck.ext2: Argument invalide while trying to open /dev/md0
The superblock could not be read or does not describe a valid ext2/ext3/ext4
filesystem. If the device is valid and it really contains an ext2/ext3/ext4
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
e2fsck -b 8193 <device>
or
e2fsck -b 32768 <device>
Concernant les 2 commandes de journalctl :
Compiled without pattern matching support
Je comprends que le raids est composé de trois disques dont un spare. Il en reste donc 2, on devrait pouvoir cependant booter.
Je m’étais aussi dit ça lorsque mdadm avait reconstruit la grappe… « avec 2 disque c’est bon, je retrouve mes données et je pourrais changer le disque défaillant » Mais au final le RAID ne se monte pas…
Ce que je ne comprends pas c’est que pour mdadm les disques sont en état « removed ».
Alors question un peu bête, pourrait-on dans ce cas les réajouter ? avec par exemple : « mdadm /dev/md0 --add /dev/sdX » ??
*****************
En farfouillant dans les journaux j’ai trouvé en lien avec sda :
juin 21 18:18:13 X kernel: md/raid:md127: device sda1 operational as raid disk 0
juin 21 18:18:13 X kernel: md/raid:md127: not enough operational devices (2/3 failed)
juin 21 18:18:13 X kernel: md/raid:md127: failed to run raid set.
juin 21 18:18:13 X kernel: md: pers->run() failed ...
et très récemment:
juin 21 23:18:30 X smartd[531]: Device: /dev/sda [SAT], 1 Currently unreadable (pending) sectors
Alors si c’est le cas, je suis dégoûté car je pensais que j’avais mis en place un système d’alerte qui me préviendrait si un disque venait à tomber en panne…
Dernière modification par Veemon (Le 21/06/2023, à 22:24)
Hors ligne
#5 Le 21/06/2023, à 22:33
- geole
Re : [Non résolu] RAID5 qui ne démarre pas
Le disque n'est pas en panne ( failing now) Ce que tu as probablement fait come test, Mais il a un secteur illisible. Il faut tester sur le code 197
La partition SDC1 est desynchronisée et SDA est en mauvais état
Regarde aussi ce retour.
journalctl --no-pager -g md0
AJOUT
Donne aussi ce retour
sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
A propos des fsck sur un raid en bon état
sudo fsck /dev/md127
fsck de util-linux 2.37.2
e2fsck 1.46.5 (30-Dec-2021)
/dev/md127 : propre, 13/65408 fichiers, 8853/261632 blocs
sudo fsck -fv /dev/sda24
fsck de util-linux 2.37.2
a@p:~$
Dernière modification par geole (Le 22/06/2023, à 06:46)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#6 Le 22/06/2023, à 08:34
- Veemon
Re : [Non résolu] RAID5 qui ne démarre pas
L’idéale serait donc de resynchroniser SDC1 pour que je puisse ré-accéder aux données, changer SDA et tout réparer ? Sauf que la synchronisation de SDC échoue… est-ce lié au fait que SDA soit en mauvais état ?
Le retour de lsblk
lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
SIZE NAME FSTYPE LABEL MOUNTPOINT
100G loop0 ext4
100G └─docker-8:82-14680143-pool
10G └─docker-8:82-14680143-235621d1db6f6373dae78f7ac833c2a3824650734d9f795ac532bf737b7d2007 ext4 /var/lib/docker/devicemapper/mnt/235621d1db6f6373dae78f7ac833c2a3824650734d9f795ac532bf737b7d2007
2G loop1
100G └─docker-8:82-14680143-pool
10G └─docker-8:82-14680143-235621d1db6f6373dae78f7ac833c2a3824650734d9f795ac532bf737b7d2007 ext4 /var/lib/docker/devicemapper/mnt/235621d1db6f6373dae78f7ac833c2a3824650734d9f795ac532bf737b7d2007
1,8T sda
1,8T └─sda1 linux_raid_member x:0
1,4T sdb
1,4T └─sdb1 ext4 /media/kodi
1,8T sdc
1,8T └─sdc1 linux_raid_member x:0
465,8G sdd ext4
1,8T sde
1,8T └─sde1 linux_raid_member x:0
298,1G sdf
1K ├─sdf1
294,4G ├─sdf2 ext4 /
3,7G └─sdf5 swap [SWAP]
3,7T sdg ext4 /media/usb/expansion
pour info sdg est mon disque de sauvegarde ; sdb et sdd du stockage divers sans intérêt.
journalctl --no-pager -g md0
Compiled without pattern matching support
En faisant une recherche manuelle :
juin 21 18:47:15 x kernel: md: md0 stopped.
juin 21 18:47:15 x kernel: md: md0 stopped.
juin 21 18:47:15 x kernel: md: kicking non-fresh sdc1 from array!
juin 21 18:47:15 x udisksd[529]: The function 'bd_md_examine' called, but not implemented!
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/degraded': Failed to open file “/sys/devices/virtual/block/md0/md/degraded”: No such file or directory (g-file-error-quark, 4)
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/sync_action': Failed to open file “/sys/devices/virtual/block/md0/md/sync_action”: No such file or directory (g-file-error-quark, 4)
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/sync_completed': Failed to open file “/sys/devices/virtual/block/md0/md/sync_completed”: No such file or directory (g-file-error-quark,
juin 21 18:47:15 x udisksd[529]: Unable to resolve /sys/devices/virtual/block/md0/md/dev-sdc1/block symlink
juin 21 18:47:15 x kernel: md/raid:md0: device sda1 operational as raid disk 0
juin 21 18:47:15 x kernel: md/raid:md0: not enough operational devices (2/3 failed)
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/degraded': Failed to open file “/sys/devices/virtual/block/md0/md/degraded”: No such file or directory (g-file-error-quark, 4)
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/sync_action': Failed to open file “/sys/devices/virtual/block/md0/md/sync_action”: No such file or directory (g-file-error-quark, 4)
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/sync_completed': Failed to open file “/sys/devices/virtual/block/md0/md/sync_completed”: No such file or directory (g-file-error-quark,
juin 21 18:47:15 x kernel: md/raid:md0: failed to run raid set.
juin 21 18:47:15 x kernel: md: pers->run() failed ...
juin 21 18:47:15 x kernel: md0: ADD_NEW_DISK not supported
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/degraded': Failed to open file “/sys/devices/virtual/block/md0/md/degraded”: No such file or directory (g-file-error-quark, 4)
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/sync_action': Failed to open file “/sys/devices/virtual/block/md0/md/sync_action”: No such file or directory (g-file-error-quark, 4)
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/sync_completed': Failed to open file “/sys/devices/virtual/block/md0/md/sync_completed”: No such file or directory (g-file-error-quark,
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/degraded': Failed to open file “/sys/devices/virtual/block/md0/md/degraded”: No such file or directory (g-file-error-quark, 4)
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/sync_action': Failed to open file “/sys/devices/virtual/block/md0/md/sync_action”: No such file or directory (g-file-error-quark, 4)
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/sync_completed': Failed to open file “/sys/devices/virtual/block/md0/md/sync_completed”: No such file or directory (g-file-error-quark,
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/degraded': Failed to open file “/sys/devices/virtual/block/md0/md/degraded”: No such file or directory (g-file-error-quark, 4)
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/sync_action': Failed to open file “/sys/devices/virtual/block/md0/md/sync_action”: No such file or directory (g-file-error-quark, 4)
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/sync_completed': Failed to open file “/sys/devices/virtual/block/md0/md/sync_completed”: No such file or directory (g-file-error-quark,
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/degraded': Failed to open file “/sys/devices/virtual/block/md0/md/degraded”: No such file or directory (g-file-error-quark, 4)
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/sync_action': Failed to open file “/sys/devices/virtual/block/md0/md/sync_action”: No such file or directory (g-file-error-quark, 4)
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/sync_completed': Failed to open file “/sys/devices/virtual/block/md0/md/sync_completed”: No such file or directory (g-file-error-quark,
juin 21 18:48:30 x smartd[531]: Device: /dev/sda [SAT], 1 Currently unreadable (pending) sectors
…
juin 21 19:06:09 x kernel: EXT4-fs (md0): unable to read superblock
juin 21 19:06:09 x kernel: EXT4-fs (md0): unable to read superblock
juin 21 19:06:09 x kernel: EXT4-fs (md0): unable to read superblock
…
juin 21 19:07:41 x kernel: md/raid:md0: failed to run raid set.
juin 21 19:07:41 x kernel: md/raid:md0: not enough operational devices (2/3 failed)
juin 21 19:07:41 x kernel: md/raid:md0: device sda1 operational as raid disk 0
…
juin 21 19:18:30 x kernel: md/raid:md0: device sda1 operational as raid disk 0
juin 21 19:18:30 x kernel: md/raid:md0: not enough operational devices (2/3 failed)
juin 21 19:18:30 x kernel: md/raid:md0: failed to run raid set.
juin 21 19:18:30 x kernel: md: pers->run() failed ...
J’ai tout remis ce qu’il y avait dans le journal avec md0.
Si je lis bien SDA est opérationnal avec un secteur illisible…
Merci pour le retour d’un fsck propre (je me le note quelque part)
Dernière modification par Veemon (Le 22/06/2023, à 08:37)
Hors ligne
#7 Le 22/06/2023, à 09:14
- geole
Re : [Non résolu] RAID5 qui ne démarre pas
C'est dommages que ton serveur ne conserve pas l'historique des événements....
Je suis surpris que la commande fsck ne donne pas le type de partition.. ( Mais le serveur n'est peut-être pas sous ubuntu)
On voit la ligne qui éjecte SDC1
juin 21 18:47:15 x kernel: md: kicking non-fresh sdc1 from array!
juin
On n'en saura donc jamais la cause
comme SDA a un secteur illisible, on peut penser que c'est pour cela que la reconstruction foire..
Saura-tu tout seul faire le ddrescue?
Cette fois-ci, la commande du milieu n'aura pas l'option -r 7 mais plutôt -r 123 voir -r -1
-r n
--retry-passes=n
Exit after the given number of retry passes. Defaults to 0. -1 means infinity. Every bad sector is tried only once in each pass. The direction is reversed after each pass. To retry bad sectors detected on a previous run, you must specify a non-zero number of retry passes.
A command like 'ddrescue -f -r-1 /dev/sdcard /dev/null mapfile' can be used to read repeatedly until the device controller succeeds and remaps the bad sectors internally.
A mon avis, ce secteur illisible est important ( un super bloc?)
il faudra à tout prix pouvoir le lire en essayant de multiples fois.
Heureusement que tu as un backup.
Dernière modification par geole (Le 22/06/2023, à 09:36)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#8 Le 22/06/2023, à 09:57
- geole
Re : [Non résolu] RAID5 qui ne démarre pas
Bonsoir geole,
Merci pour tes réponses. J’ai commandé un nouveau disque cette après-midi.
Pour fsck :
fsck /dev/md0 fsck from util-linux 2.33.1 e2fsck 1.44.5 (15-Dec-2018) fsck.ext2: Argument invalide while trying to open /dev/md0 The superblock could not be read or does not describe a valid ext2/ext3/ext4 filesystem. If the device is valid and it really contains an ext2/ext3/ext4 filesystem (and not swap or ufs or something else), then the superblock is corrupt, and you might try running e2fsck with an alternate superblock: e2fsck -b 8193 <device> or e2fsck -b 32768 <device>
(
J'avais oublié cette piste....
essaie
sudo e2fsck -b 32768 /dev/md0
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#9 Le 22/06/2023, à 10:27
- Veemon
Re : [Non résolu] RAID5 qui ne démarre pas
Oui mon serveur est sous Debian.
Concernant l’historique des événements j’ai rien changé là dessus, ça doit être les valeurs par défauts.
A mon avis, ce secteur illisible est important ( un super bloc?)
Il n’y a pas d’outils pour répondre à cette question ? Savoir où se situe ce secteur illisible est important…
J’ai un lointain souvenir qu’une sorte de dd if=/dev/sda1 of=/dev/null peut donner en erreur la position illisible ? non ?
Si j’ai bien relus les docs et l’ancienne discussion ma commande ddrescue serait :
ddrescue -d -f -R -r123 -b4096 -c1 /dev/sda /dev/sdX /var/log/ddrescue_SDA.log
Avec sdX le nouveau disque que je vais recevoir.
J’avais essayé de mon côté e2fsck mais même en changeant les chiffres ça n’avait pas marché.
e2fsck -b 32768 /dev/md0
e2fsck 1.44.5 (15-Dec-2018)
e2fsck: Argument invalide while trying to open /dev/md0
The superblock could not be read or does not describe a valid ext2/ext3/ext4
filesystem. If the device is valid and it really contains an ext2/ext3/ext4
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
e2fsck -b 8193 <device>
or
e2fsck -b 32768 <device>
Il y a 2 ans on avait aussi essayé de copier un superblock depuis un autre disque avec dd.
Ne pourrait-on pas essayer de copier par exemple le superblock qui serait dupliqué ailleurs sur le disque pour le remettre à une position qui pourrait aider e2fsck ? (Je dis ça sans connaissance sur les disques durs…)
À nouveau merci pour ton aide
Dernière modification par Veemon (Le 22/06/2023, à 10:32)
Hors ligne
#10 Le 23/06/2023, à 10:20
- geole
Re : [Non résolu] RAID5 qui ne démarre pas
1) Pour le secteur illisible, peux-tu donner ce retour
journalctl | grep "I/O error" | grep "sector" | cut -d" " -f9-12 |sort | uniq -c
2) ddrescue
La première commande de duplication de ce qui est lisible.
sudo ddrescue -f -n -b4096 /dev/sda /dev/sdX /var/log/ddrescue_SDA.log
La seconde commande de duplication de ce qui n’est pas lisible est bonne
sudo ddrescue -d -f -R -r123 -b4096 -c1 /dev/sda /dev/sdX /var/log/ddrescue_SDA.log
3) Pour fsck, je suis embêté, il y a peut-être un autre problème qui se cache derrière ce rejet.
Nouveaux essais avec les autres valeurs traditionnelles: Superblocs de secours stockés sur les blocs :
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968, 102400000
sudo e2fsck -b 98304 /dev/md0
sudo e2fsck -b 163840 /dev/md0
etc.....
Peut-être que sous debian, il y a une autre façon d’implémenter le RAID ou que le commande fsck ne convient pas
4) Pour les super blocs, tu confonds, il s’agissait probablement de sauver les tables de partition.
Je ne sais pas faire. Il existe peut-être un script mais il est certainement trop tard car la partition SDC1 a certainement commencé à s’écrire vu que
cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sde1[3] sdc1[1] sda1[0]
3906762752 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [UU_]
[>....................] recovery = 0.0% (1820060/1953381376) finish=250.1min speed=130004K/sec
bitmap: 0/15 pages [0KB], 65536KB chun
Voici le principe de ce qu’il faudrait faire:
Imaginons que le secteur 1000 de la partitions SDA1 soit illisible.
Il faut lire les secteurs 1000 des partitions SDC1 et SDD1 et faire leur somme en binaire sans report pour reconstituer le secteur 1000 de SDA1
0+0=0
0+1=1
1+0=1
1+1=0
exemple
SDC1 10101010101000001111.......
SDD1 10000111111010101000....
Donne 00101101010010100111... pour SDA1
Ajout: Une petite commande récapitulative fort utile à essayer.
for i in a c d ; do echo ==== sd$i ==== ;sudo smartctl -a /dev/sd$i | egrep "Pending|Reallocated|On_Hours"; sudo mdadm --examine "/dev/sd$i"1 | egrep "Update Time|Events";echo;done
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#11 Le 24/06/2023, à 12:44
- Veemon
Re : [Non résolu] RAID5 qui ne démarre pas
Bonjour,
info : J’ai installé mon nouveau disque après redémarrage du serveur j’obtiens la liste des disques (sd) suivant :
a : RAID secteur PT
b : kodi
c : RAID désync
d : nouveau HDD
e : RAID ok
f : système
g : backup
1) la commande n’a rien retournée et je n’ai rien vu dans les log concernant les I/O error. D’après la loi de Murphy ça serait le disque du système qui serait en train de rendre l’âme… Mais pour ça pas d’inquiétude j’ai un backup du système (root, etc, var, lib…)
2) j’ai pu lancer la première commande ddrescue. À ma dernière surveillance l’opération en était à plus de 75%.
Mais en me reconnectant via ssh au serveur j’ai eu l’erreur suivante :
Segmentation fault
-bash: /usr/bin/id: Erreur d'entrée/sortie
Il faut que j’accède directement au serveur pour voir plus en détail ce qui se passe. Le problème est que je n’y aurait pas accès en physique avant lundi soir (26/6)…
Et depuis ma connexion ssh n’aboutit même plus… (ssh: connect to host X port 22: No route to host)
3) je n’ai pas pu essayer la commande
4) Effectivement j’ai du confondre avec la table des partitions ^^. Merci pour cette info de superblocs
5) Très bonne commande récapitulative que je vais intégrer à mon script de monitoring.
for i in a b c d e f ; do echo ==== sd$i ==== ;sudo smartctl -a /dev/sd$i | egrep "Pending|Reallocated|On_Hours"; sudo mdadm --examine "/dev/sd$i"1 | egrep "Update Time|Events";echo;done
==== sda ====
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
9 Power_On_Hours 0x0032 027 027 000 Old_age Always - 53372
196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 1
Update Time : Wed Jun 21 17:26:55 2023
Events : 3027
==== sdc ====
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
9 Power_On_Hours 0x0032 084 083 000 Old_age Always - 11807
196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0
Update Time : Wed Jun 21 17:25:04 2023
Events : 516
==== sdd ====
5 Reallocated_Sector_Ct 0x0033 100 100 010 Pre-fail Always - 0
9 Power_On_Hours 0x0032 100 100 000 Old_age Always - 0 (244 145 0)
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 0
mdadm: cannot open /dev/sdd1: No such file or directory
==== sde ====
5 Reallocated_Sector_Ct 0x0033 100 100 010 Pre-fail Always - 0
9 Power_On_Hours 0x0032 079 079 000 Old_age Always - 18409 (209 8 0)
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 0
Update Time : Wed Jun 21 17:26:55 2023
Events : 3027
Je reviendrais donner des nouvelles après le week-end.
Hors ligne
#12 Le 27/06/2023, à 08:01
- Veemon
Re : [Non résolu] RAID5 qui ne démarre pas
Me revoilà,
J’ai redémarré mon serveur à la main, parce qu’il s’était bloqué… comment pourquoi… mystère…
Le premier ddrescue s’est très bien passé :
# Mapfile. Created by GNU ddrescue version 1.23
# Command line: ddrescue -f -n -b4096 /dev/sda /dev/sdd /var/log/ddrescue_SDA_1.log
# Start time: 2023-06-23 17:30:45
# Current time: 2023-06-24 00:07:20
# Finished
# current_pos current_status current_pass
0x1D1C1110000 + 1
# pos size status
0x00000000 0x1D1C1116000 +
et depuis hier fin d’après-midi le second ddrescue est toujours en cours
# Mapfile. Created by GNU ddrescue version 1.23
# Command line: ddrescue -d -f -R -r123 -b4096 -c1 /dev/sda /dev/sdd /var/log/ddrescue_SDA_2.log
# Start time: 2023-06-26 18:41:46
# Current time: 2023-06-27 08:54:17
# Copying non-tried blocks... Pass 1 (backwards)
# current_pos current_status current_pass
0xF964CE3000 ? 1
# pos size status
0x00000000 0xF964CE2000 ?
0xF964CE2000 0xD85C434000 +
L’opération est à 47 %, on est à 0B pour les non-trimmed, non-scraped, bad-sector, bad areas, bad errors. Il semble encore rester 11h d’opérations.
UPADTE :
Le second ddrescue est terminé.
# Mapfile. Created by GNU ddrescue version 1.23
# Command line: ddrescue -d -f -R -r123 -b4096 -c1 /dev/sda /dev/sdd /var/log/ddrescue_SDD.log
# Start time: 2023-06-26 18:41:46
# Current time: 2023-06-27 20:00:49
# Finished
# current_pos current_status current_pass
0x00001000 + 1
# pos size status
0x00000000 0x1D1C1116000 +
Il n’y a pas eu d’erreur révélées par ddrescue.
Dernière modification par Veemon (Le 27/06/2023, à 21:28)
Hors ligne
#13 Le 05/07/2023, à 09:45
- Veemon
Re : [Non résolu] RAID5 qui ne démarre pas
J’ai essayé de ré-assembler le raid avec tous les disques sains, sans succès.
J’ai essayé de m’attarder un peu plus en détail sur une resynchronisation du disque qui était désynchronisé :
mdadm -v --assemble --run --force --update=resync /dev/md0 /dev/sdd1 /dev/sdc1 /dev/sde1
mdadm: looking for devices for /dev/md0
mdadm: /dev/sdd1 is identified as a member of /dev/md0, slot 0.
mdadm: /dev/sdc1 is identified as a member of /dev/md0, slot 1.
mdadm: /dev/sde1 is identified as a member of /dev/md0, slot 2.
mdadm: forcing event count in /dev/sdc1(1) from 516 upto 3027
mdadm: clearing FAULTY flag for device 1 in /dev/md0 for /dev/sdc1
mdadm: Marking array /dev/md0 as 'clean'
mdadm: added /dev/sdc1 to /dev/md0 as 1
mdadm: added /dev/sde1 to /dev/md0 as 2
mdadm: added /dev/sdd1 to /dev/md0 as 0
mdadm: /dev/md0 has been started with 2 drives (out of 3) and 1 rebuilding.
cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md0 : active (auto-read-only) raid5 sdd1[0] sde1[3] sdc1[1]
3906762752 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [UU_]
bitmap: 0/15 pages [0KB], 65536KB chunk
unused devices: <none>
mdadm --examine /dev/md0
mdadm: No md superblock detected on /dev/md0.
for i in a c d e ; do echo ==== sd$i ==== ;sudo smartctl -a /dev/sd$i | egrep "Pending|Reallocated|On_Hours"; sudo mdadm --examine "/dev/sd$i"1 | egrep "Update Time|Events";echo;done
==== sda ====
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
9 Power_On_Hours 0x0032 027 027 000 Old_age Always - 53588
196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 1
Update Time : Wed Jun 21 17:26:55 2023
Events : 3027
==== sdc ====
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
9 Power_On_Hours 0x0032 084 083 000 Old_age Always - 12016
196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0
Update Time : Wed Jun 21 17:25:04 2023
Events : 3027
==== sdd ====
5 Reallocated_Sector_Ct 0x0033 100 100 010 Pre-fail Always - 0
9 Power_On_Hours 0x0032 100 100 000 Old_age Always - 282 (174 91 0)
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 0
Update Time : Wed Jun 21 17:26:55 2023
Events : 3027
==== sde ====
5 Reallocated_Sector_Ct 0x0033 100 100 010 Pre-fail Always - 0
9 Power_On_Hours 0x0032 079 079 000 Old_age Always - 18691 (200 182 0)
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 0
Update Time : Wed Jun 21 17:26:55 2023
Events : 3027
Je n’ai pas l’impression qu’il y ait d’erreur :
/dev/md0:
Version : 1.2
Creation Time : Wed Jun 21 16:40:23 2023
Raid Level : raid5
Array Size : 3906762752 (3725.78 GiB 4000.53 GB)
Used Dev Size : 1953381376 (1862.89 GiB 2000.26 GB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Wed Jun 21 17:26:55 2023
State : clean, degraded
Active Devices : 2
Working Devices : 3
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : bitmap
Name : X:0 (local to host X)
UUID : 6aabd0b8:693906fd:81fa0fad:44f89399
Events : 3027
Number Major Minor RaidDevice State
0 8 49 0 active sync /dev/sdd1
1 8 33 1 active sync /dev/sdc1
3 8 65 2 spare rebuilding /dev/sde1
D’ici la fin de semaine je vais tenter de lui signaler que le disque sde est défaillant, de le retirer puis de le rajouter à la grappe raid. Voir si ça fonctionne…
Sinon tant pis j’efface tous les disques pour recréer un RAID de 0 et y remettre la sauvegarde du 1er juin…
Edit :
En fait j’ai toujours l’erreur du superblock…
e2fsck -f /dev/md0
e2fsck 1.44.5 (15-Dec-2018)
ext2fs_open2: Bad magic number in super-block
e2fsck: Superblock invalid, trying backup blocks...
e2fsck: Bad magic number in super-block while trying to open /dev/md0
The superblock could not be read or does not describe a valid ext2/ext3/ext4
filesystem. If the device is valid and it really contains an ext2/ext3/ext4
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
e2fsck -b 8193 <device>
or
e2fsck -b 32768 <device>
Dernière modification par Veemon (Le 05/07/2023, à 10:09)
Hors ligne
#14 Le 05/07/2023, à 10:25
- geole
Re : [Non résolu] RAID5 qui ne démarre pas
Bonjour.
Ce week-end, j'ai installé un raid tout neuf en EXT4 avec un disque au lieu d'une partition. Après l'avoir chargé pendant des heures, au redémarrage de l'ordinateur, j'ai eu exactement la même erreur. Il y a certainement une option pour dire que les super-blocs n'existent pas. J'ai préféré recommencer en mettant des partitions au lieu des disques, je prévoyais de chercher une option à mes moments perdus.
J'ai vu l'option --zero-superblock
Au point où tu en es, tu peux la tenter.
Dernière modification par geole (Le 05/07/2023, à 10:28)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#15 Le 05/07/2023, à 18:53
- Veemon
Re : [Non résolu] RAID5 qui ne démarre pas
Je ne me souviens plus trop comment j’avais créé mon raid… Mais je crois que j’avais créé des partitions en suivant le tuto du wiki-ubuntu.
J’ai testé l’option zero-superblock. D’après ce que j’ai lu c’est à appliquer sur le raid directement (md0) ?
mdadm -v --zero-superblock /dev/md0
mdadm: Unrecognised md component device - /dev/md0
mdadm -E /dev/md0
mdadm: No md superblock detected on /dev/md0.
Bon ça ne marche pas non plus…
cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md0 : active (auto-read-only) raid5 sdd1[0] sde1[3] sdc1[1]
3906762752 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [UU_]
bitmap: 0/15 pages [0KB], 65536KB chunk
unused devices: <none>
C’est bizarre…
Vois-tu une autre piste ou pas ?
*******
Et le mode B de mdadm, serait-ce utile ou pas ?
-B, --build
Build a legacy array without superblocks.
Hors ligne
#16 Le 05/07/2023, à 19:12
- geole
Re : [Non résolu] RAID5 qui ne démarre pas
J'ai vu cette documentation
mdadm --build device -chunk=X --level=Y --raid-devices=Z devices
This usage is similar to --create. The difference is that it creates
a legacy array without a superblock. With these arrays there is no
different between initially creating the array and subsequently
assembling the array, except that hopefully there is useful data
there in the second case.
Donc, tu aurais pu utiliser cette commande de création sans super bloc, Il devrait donc y avoir une option de démarrage pour le dire que je ne trouve pas. Je ne suis pas surpris que zero-superbloc ne soit pas la bonne.
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#17 Le 06/07/2023, à 09:17
- Veemon
Re : [Non résolu] RAID5 qui ne démarre pas
J’ai l’impression qu’il y a du mieux…
J’ai recréé le RAID :
mdadm --create /dev/md0 --level=5 --raid-devices=3 /dev/sdd1 /dev/sdc1 /dev/sde1
mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Wed Jul 5 19:57:46 2023
Raid Level : raid5
Array Size : 3906762752 (3725.78 GiB 4000.53 GB)
Used Dev Size : 1953381376 (1862.89 GiB 2000.26 GB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Thu Jul 6 01:31:44 2023
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : bitmap
Name : X:0 (local to host X)
UUID : ba2cdc48:1de5496a:3e0e4c9e:faf056fb
Events : 3738
Number Major Minor RaidDevice State
0 8 49 0 active sync /dev/sdd1
1 8 33 1 active sync /dev/sdc1
3 8 65 2 active sync /dev/sde1
Donc là je me dis que tout semble bon, les disques sont OK
Mais lorsque je tente de monter le RAID :
mount /dev/md0 /media/raid
mount: /media/raid: wrong fs type, bad option, bad superblock on /dev/md0, missing codepage or helper program, or other error.
Je tente un fsck :
fsck /dev/md0
fsck from util-linux 2.33.1
e2fsck 1.44.5 (15-Dec-2018)
ext2fs_open2: Bad magic number in super-block
fsck.ext2: Superblock invalid, trying backup blocks...
fsck.ext2: Bad magic number in super-block while trying to open /dev/md0
The superblock could not be read or does not describe a valid ext2/ext3/ext4
filesystem. If the device is valid and it really contains an ext2/ext3/ext4
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
e2fsck -b 8193 <device>
or
e2fsck -b 32768 <device>
for i in d c e ; do echo ==== sd$i ==== ;sudo smartctl -a /dev/sd$i | egrep "Pending|Reallocated|On_Hours"; sudo mdadm --examine "/dev/sd$i"1 | egrep "Update Time|Events";echo;done
==== sdd ====
5 Reallocated_Sector_Ct 0x0033 100 100 010 Pre-fail Always - 0
9 Power_On_Hours 0x0032 100 100 000 Old_age Always - 306 (132 213 0)
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 0
Update Time : Thu Jul 6 01:31:44 2023
Events : 3738
==== sdc ====
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
9 Power_On_Hours 0x0032 084 083 000 Old_age Always - 12039
196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0
Update Time : Thu Jul 6 01:31:44 2023
Events : 3738
==== sde ====
5 Reallocated_Sector_Ct 0x0033 100 100 010 Pre-fail Always - 0
9 Power_On_Hours 0x0032 079 079 000 Old_age Always - 18714 (147 62 0)
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 0
Update Time : Thu Jul 6 01:31:44 2023
Events : 3738
Je vais essayer de voir ce que je trouve sur le net avec le message d’erreur de mount…
Un lsblk :
sdc 8:32 0 1,8T 0 disk
└─sdc1 8:33 0 1,8T 0 part
└─md0 9:0 0 3,7T 0 raid5
sdd 8:48 0 1,8T 0 disk
└─sdd1 8:49 0 1,8T 0 part
└─md0 9:0 0 3,7T 0 raid5
sde 8:64 1 1,8T 0 disk
└─sde1 8:65 1 1,8T 0 part
└─md0 9:0 0 3,7T 0 raid5
J’ai l’impression que je sois obligé de formater le RAID… (mkfs.ext4 /dev/md0)… dommage je crois que le RAID a retrouvé les données initialement présentes…
Dernière modification par Veemon (Le 06/07/2023, à 09:30)
Hors ligne
#18 Le 06/07/2023, à 09:28
- geole
Re : [Non résolu] RAID5 qui ne démarre pas
Bonjour
Sous les sdX le md0 doit être compris comme /dev/md00 cela correspond à ta commande de création MDADM avec allocation des trois partitions
Dernière modification par geole (Le 06/07/2023, à 09:29)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#19 Le 12/07/2023, à 18:28
- Veemon
Re : [Non résolu] RAID5 qui ne démarre pas
Bon au final j’ai rien trouvé…
J’ai essayé de refaire des manips de l’ancienne conversation avec testdisk notamment, pour rechercher des superblocks. Mais sans succès, il n’a rien trouvé.
TestDisk 7.0, Data Recovery Utility, April 2015
Christophe GRENIER <grenier@cgsecurity.org>
http://www.cgsecurity.org
Disk /dev/md0 - 4000 GB / 3725 GiB - CHS 976690688 2 4
The harddisk (4000 GB / 3725 GiB) seems too small! (< 18446732 TB / 16777205 TiB)
Check the harddisk size: HD jumpers settings, BIOS detection...
The following partitions can't be recovered:
Partition Start End Size in sectors
MS Data 3907226520 11720756119 7813529600
MS Data 3907226560 11720756159 7813529600
MS Data 3907229192 11720758791 7813529600
MS Data 3907230088 11720759687 7813529600
MS Data 3907232704 11720762303 7813529600
MS Data 3907234408 11720764007 7813529600
MS Data 3907235408 11720765007 7813529600
MS Data 3907242208 11720771807 7813529600
MS Data 3907243232 11720772831 7813529600
> MS Data 3907248648 11720778247 7813529600
[ Continue ]
ext4 blocksize=4096 Large_file Sparse_SB Recover, 4000 GB / 3725 GiB
Au passage j’ai lu :
The harddisk (4000 GB / 3725 GiB) seems too small! (< 18446732 TB / 16777205 TiB)
Est-ce logique ? Parce que pour moi non…
Bref… au final
J’ai recréé un RAID5, je l’ai reformaté. Et là actuellement j’applique ma sauvegarde des données. En principe ça se fini plutôt bien.
Aussi lors du formatage du RAID mke2fs m’a communiqué les superblock :
mke2fs 1.44.5 (15-Dec-2018)
/dev/md0 contains a ext4 file system
last mounted on /media/raid on Thu Dec 16 09:22:40 2021
Creating filesystem with 976691200 4k blocks and 244178944 inodes
Filesystem UUID: d74be2a4-48a6-4990-97e9-e8fd55255a07
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968,
102400000, 214990848, 512000000, 550731776, 644972544
Allocating group tables: done
Writing inode tables: done
Creating journal (262144 blocks): done
Writing superblocks and filesystem accounting information: done
Franchement je me dis que de les garder sous le coude pourrait aider à l’avenir… dans 3 ans… ??
Merci beaucoup Geole pour ton aide 3 ans après mon premier incident, t’es toujours là et c’est un grand plaisir !
Dernière modification par Veemon (Le 12/07/2023, à 18:28)
Hors ligne
#20 Le 13/07/2023, à 07:10
- geole
Re : [Non résolu] RAID5 qui ne démarre pas
Au passage j’ai lu :
testdisk a écrit :The harddisk (4000 GB / 3725 GiB) seems too small! (< 18446732 TB / 16777205 TiB)
Bonjour
Au premier abord, cela parait surprenant mais c'est assez logique à cause de l'évolution probable des partitions.
Exemple: tu fabriques une partition de 500 go et tu la supprimes et tu la refabriques avec une taille de 600 Go
testdisk peut trouver la trace de l'ancienne partition et va donc dire qu'il faut 1100 Go pour sauver. Mais en pratique, tu ne sauveras certainement que l'une des deux.
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#21 Le 18/02/2024, à 18:38
- Veemon
Re : [Non résolu] RAID5 qui ne démarre pas
Note pour plus tard...
Nouvel épisode :
Youpi j'ai éteints le serveur...
Au redémarrage un disque du raid n'a pas été détecté par le système. Le RAID s'est lancé 2/3.
En rebranchant le disque, le système l'a redétecté mais un autre disque du raid est passé en S (retour de la commande ls cat /proc/mdstat).
Je me retrouve dans cette situation :
Number Major Minor RaidDevice State
- 0 0 0 removed
- 0 0 1 removed
3 8 65 2 active sync /dev/sde1
Donc là forcément j'ai arrêté le raid éteins l'ordi.
Au démarrage, je me suis retrouvé dans la même situation que mon post initial. Je savais donc que ça se finirait par la recréation du raid et l'application de la sauvegarde de la veille.
Avant de restaurer la sauvegarde j'ai noté que les Events des disques donné par mdstat se suivaient :
==== sdc ====
Update Time : Sun Feb 18 15:50:06 2024
Events : 11083
==== sdd ====
Update Time : Sun Feb 18 16:50:33 2024
Events : 11684
==== sde ====
Update Time : Sun Feb 18 16:52:21 2024
Events : 11685
Les disques ont dus être désyncronisés ? Mais comment faire pour dire à mdadm de les resynchroniser correctement ? -> peut-être une piste sur ce site : https://www.thomas-krenn.com/en/wiki/Md … and_resync
J'ai donc refais toutes les commandes expliquées dans les messages plus hauts et restaurée ma sauvegarde...
Hors ligne
#22 Le 18/02/2024, à 20:22
- geole
Re : [Non résolu] RAID5 qui ne démarre pas
Bonjour.
Je pense que tu as vérifié l'état smartctl de tes disques.
Le lien que tu donnes implique qu'un seul disques est absent.
Avec deux disques absents, c'est fichu mais comme un seul event de difference entre deux disques, il est possible probable? qu'un nouvel assemblage puisse se faire. C'est décrit dans le paraphe 6.1 de la documentation.
Dernière modification par geole (Le 18/02/2024, à 20:39)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne