Contenu | Rechercher | Menus

Annonce

Si vous avez des soucis pour rester connecté, déconnectez-vous puis reconnectez-vous depuis ce lien en cochant la case
Me connecter automatiquement lors de mes prochaines visites.

À propos de l'équipe du forum.

#1 Le 21/06/2023, à 18:59

Veemon

[Non résolu] RAID5 qui ne démarre pas

Update : Non-résolu : --> recréation du RAID5 et application de la sauvegarde des données (faite en amont du problème)

Bonjour,

J’ai un RAID5, géré par mdadm, qui suite à un redémarrage du serveur ne démarre plus…

J’ai tenter de le réassembler avec :

mdadm -v --assemble --readonly  --force /dev/md0 /dev/sda1  /dev/sdc1 /dev/sde1
mdadm: looking for devices for /dev/md0
mdadm: no recogniseable superblock on /dev/sda1
mdadm: /dev/sda1 has no superblock - assembly aborted

Et j’ai eu un problème de superbloc. J’ai lancé des fsck :

root@:~>fsck -v -f /dev/sda1
fsck from util-linux 2.33.1
e2fsck 1.44.5 (15-Dec-2018)
ext2fs_open2: Bad magic number in super-block
fsck.ext2: Superblock invalid, trying backup blocks...
fsck.ext2: Bad magic number in super-block while trying to open /dev/sda1

The superblock could not be read or does not describe a valid ext2/ext3/ext4
filesystem.  If the device is valid and it really contains an ext2/ext3/ext4
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
    e2fsck -b 8193 <device>
 or
    e2fsck -b 32768 <device>

root@:~>fsck -v -f /dev/sdc1
fsck from util-linux 2.33.1
e2fsck 1.44.5 (15-Dec-2018)
ext2fs_open2: Bad magic number in super-block
fsck.ext2: Superblock invalid, trying backup blocks...
fsck.ext2: Bad magic number in super-block while trying to open /dev/sdc1

The superblock could not be read or does not describe a valid ext2/ext3/ext4
filesystem.  If the device is valid and it really contains an ext2/ext3/ext4
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
    e2fsck -b 8193 <device>
 or
    e2fsck -b 32768 <device>

root@:~>fsck -v -f /dev/sde1
fsck from util-linux 2.33.1
e2fsck 1.44.5 (15-Dec-2018)
Superblock has an invalid journal (inode 8).
Clear<y>? cancelled!
fsck.ext4: The journal superblock is corrupt while checking journal for /dev/sde1
e2fsck: Cannot proceed with file system check

/dev/sde1: ********** WARNING: Filesystem still has errors **********

Suivi par un fsck -v -ly /dev/sde1 pour tenter de réparer le disque…
À la fin de la commande j’obtients :

/dev/sde1: ***** FILE SYSTEM WAS MODIFIED *****

          15 inodes used (0.00%, out of 122101760)
           0 non-contiguous files (0.0%)
           0 non-contiguous directories (0.0%)
             # of inodes with ind/dind/tind blocks: 81/80/80
             Extent depth histogram: 1
     7685075 blocks used (1.57%, out of 488378368)
           0 bad blocks
           1 large file

           0 regular files
           1 directory
           1 character device file
           1 block device file
           1 fifo
           0 links
           0 symbolic links (0 fast symbolic links)
           1 socket
------------
           1 file

Je tente un nouvel assemblage :

mdadm -v --assemble --readonly  --force /dev/md0 /dev/sda1  /dev/sdc1 /dev/sde1
mdadm: looking for devices for /dev/md0
mdadm: no recogniseable superblock on /dev/sda1
mdadm: /dev/sda1 has no superblock - assembly aborted

Je tente de créer la grappe :

mdadm --create /dev/md0 --level=5 --raid-devices=3 /dev/sda1 /dev/sdc1 /dev/sde1 
mdadm: /dev/sde1 appears to contain an ext2fs file system
       size=1953513472K  mtime=Sat Oct  2 16:59:42 2021
Continue creating array? yes
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.

Je surveille la resynchro :

cat /proc/mdstat 
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md0 : active raid5 sde1[3] sdc1[1] sda1[0]
      3906762752 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [UU_]
      [>....................]  recovery =  0.0% (1820060/1953381376) finish=250.1min speed=130004K/sec
      bitmap: 0/15 pages [0KB], 65536KB chunk

unused devices: <none>

Et vers la fin le nombre de disque passe à 3/1[U__] !

À la fin de la recréation :

mdadm -E /dev/md0 
mdadm: No md superblock detected on /dev/md0.

Je décide de redémarrer le serveur pour voir ce qui a changé.
Le RAID n’est pas réapparu.

J’ai toujours des number in super-block avec nfsck.ext4 /dev/sd[ace]1

Bad magic nfsck.ext4 /dev/sdX1
e2fsck 1.44.5 (15-Dec-2018)
ext2fs_open2: Bad magic number in super-block

J’ai essayé de monter le RAID à la main :

mount /dev/md0 /tmp/test/
mount: /tmp/test: wrong fs type, bad option, bad superblock on /dev/md0, missing codepage or helper program, or other error.

D’essayer de le démarrer manuellement j’ai cette erreur :

mdadm --manage /dev/md0  --run
mdadm: failed to start array /dev/md/0: Input/output error

Et lorsque je demande un détail de mdadm :

mdadm --detail /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Wed Jun 21 16:40:23 2023
        Raid Level : raid5
     Used Dev Size : 1953381376 (1862.89 GiB 2000.26 GB)
      Raid Devices : 3
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Wed Jun 21 17:26:55 2023
             State : active, FAILED, Not Started 
    Active Devices : 1
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 1

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : unknown

              Name : tonioserveur:0  (local to host tonioserveur)
              UUID : 6aabd0b8:693906fd:81fa0fad:44f89399
            Events : 3027

    Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       -       0        0        1      removed
       -       0        0        2      removed

       -       8        1        0      sync   /dev/sda1
       -       8       65        2      spare rebuilding   /dev/sde1

Suivi par un :

mdadm -E /dev/sd[ace]1
/dev/sda1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 6aabd0b8:693906fd:81fa0fad:44f89399
           Name : tonioserveur:0  (local to host tonioserveur)
  Creation Time : Wed Jun 21 16:40:23 2023
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 3906762895 (1862.89 GiB 2000.26 GB)
     Array Size : 3906762752 (3725.78 GiB 4000.53 GB)
  Used Dev Size : 3906762752 (1862.89 GiB 2000.26 GB)
    Data Offset : 264192 sectors
   Super Offset : 8 sectors
   Unused Space : before=264112 sectors, after=143 sectors
          State : clean
    Device UUID : 223be693:d83133c7:49173e09:51711a75

Internal Bitmap : 8 sectors from superblock
    Update Time : Wed Jun 21 17:26:55 2023
  Bad Block Log : 512 entries available at offset 16 sectors
       Checksum : 684dc068 - correct
         Events : 3027

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 0
   Array State : A.A ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdc1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 6aabd0b8:693906fd:81fa0fad:44f89399
           Name : tonioserveur:0  (local to host tonioserveur)
  Creation Time : Wed Jun 21 16:40:23 2023
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 3906762895 (1862.89 GiB 2000.26 GB)
     Array Size : 3906762752 (3725.78 GiB 4000.53 GB)
  Used Dev Size : 3906762752 (1862.89 GiB 2000.26 GB)
    Data Offset : 264192 sectors
   Super Offset : 8 sectors
   Unused Space : before=264112 sectors, after=143 sectors
          State : clean
    Device UUID : 1277d788:5b07153e:8aec7955:a07e79f7

Internal Bitmap : 8 sectors from superblock
    Update Time : Wed Jun 21 17:25:04 2023
  Bad Block Log : 512 entries available at offset 16 sectors
       Checksum : a2beaa2d - correct
         Events : 516

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 1
   Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sde1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0xb
     Array UUID : 6aabd0b8:693906fd:81fa0fad:44f89399
           Name : tonioserveur:0  (local to host tonioserveur)
  Creation Time : Wed Jun 21 16:40:23 2023
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 3906762895 (1862.89 GiB 2000.26 GB)
     Array Size : 3906762752 (3725.78 GiB 4000.53 GB)
  Used Dev Size : 3906762752 (1862.89 GiB 2000.26 GB)
    Data Offset : 264192 sectors
   Super Offset : 8 sectors
Recovery Offset : 712209760 sectors
   Unused Space : before=264112 sectors, after=143 sectors
          State : clean
    Device UUID : 5096fa79:149b242e:cc3c5ef5:300c6dbc

Internal Bitmap : 8 sectors from superblock
    Update Time : Wed Jun 21 17:26:55 2023
  Bad Block Log : 512 entries available at offset 16 sectors - bad blocks present.
       Checksum : 1339baa2 - correct
         Events : 3027

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 2
   Array State : A.A ('A' == active, '.' == missing, 'R' == replacing)

Et aussi pour info :

cat /proc/mdstat 
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] 
md0 : inactive sda1[0] sde1[3]
      3906762895 blocks super 1.2
       
unused devices: <none>

Et à ce niveau je suis perdu…
Pour moi le sdc aurait un souci, mais il est en Array state AAA, là où les autres sont en A.A…

Concernant la santé des disques :
sda :

smartctl -d ata -a /dev/sda
smartctl 6.6 2017-11-05 r4594 [x86_64-linux-4.19.0-24-amd64] (local build)
Copyright (C) 2002-17, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Blue
Device Model:     WDC WD20EZRZ-00Z5HB0
Serial Number:    WD-WCC4M1HSV1CH
LU WWN Device Id: 5 0014ee 20d260d0c
Firmware Version: 80.00A80
User Capacity:    2000398934016 bytes [2,00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    5400 rpm
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ACS-2 (minor revision not indicated)
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is:    Wed Jun 21 15:57:36 2023 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x84)	Offline data collection activity
					was suspended by an interrupting command from host.
					Auto Offline Data Collection: Enabled.
Self-test execution status:      (   0)	The previous self-test routine completed
					without error or no self-test has ever
					been run.
Total time to complete Offline
data collection: 		(25800) seconds.
Offline data collection
capabilities: 			 (0x7b) SMART execute Offline immediate.
					Auto Offline data collection on/off support.
					Suspend Offline collection upon new
					command.
					Offline surface scan supported.
					Self-test supported.
					Conveyance Self-test supported.
					Selective Self-test supported.
SMART capabilities:            (0x0003)	Saves SMART data before entering
					power-saving mode.
					Supports SMART auto save timer.
Error logging capability:        (0x01)	Error logging supported.
					General Purpose Logging supported.
Short self-test routine
recommended polling time: 	 (   2) minutes.
Extended self-test routine
recommended polling time: 	 ( 261) minutes.
Conveyance self-test routine
recommended polling time: 	 (   5) minutes.
SCT capabilities: 	       (0x7035)	SCT Status supported.
					SCT Feature Control supported.
					SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       1
  3 Spin_Up_Time            0x0027   181   172   021    Pre-fail  Always       -       3916
  4 Start_Stop_Count        0x0032   096   096   000    Old_age   Always       -       4874
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   027   027   000    Old_age   Always       -       53324
 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       99
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       64
193 Load_Cycle_Count        0x0032   001   001   000    Old_age   Always       -       2703373
194 Temperature_Celsius     0x0022   102   097   000    Old_age   Always       -       45
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       1
198 Offline_Uncorrectable   0x0030   200   200   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       1

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

sdc

smartctl -d ata -a /dev/sdc
smartctl 6.6 2017-11-05 r4594 [x86_64-linux-4.19.0-24-amd64] (local build)
Copyright (C) 2002-17, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Blue
Device Model:     WDC WD20EZRZ-22Z5HB0
Serial Number:    WD-WCC4M5LUXSYV
LU WWN Device Id: 5 0014ee 212ea8c46
Firmware Version: 80.00A80
User Capacity:    2000398934016 bytes [2,00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    5400 rpm
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ACS-2 (minor revision not indicated)
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is:    Wed Jun 21 16:02:13 2023 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x82)	Offline data collection activity
					was completed without error.
					Auto Offline Data Collection: Enabled.
Self-test execution status:      (   0)	The previous self-test routine completed
					without error or no self-test has ever
					been run.
Total time to complete Offline
data collection: 		(28320) seconds.
Offline data collection
capabilities: 			 (0x7b) SMART execute Offline immediate.
					Auto Offline data collection on/off support.
					Suspend Offline collection upon new
					command.
					Offline surface scan supported.
					Self-test supported.
					Conveyance Self-test supported.
					Selective Self-test supported.
SMART capabilities:            (0x0003)	Saves SMART data before entering
					power-saving mode.
					Supports SMART auto save timer.
Error logging capability:        (0x01)	Error logging supported.
					General Purpose Logging supported.
Short self-test routine
recommended polling time: 	 (   2) minutes.
Extended self-test routine
recommended polling time: 	 ( 285) minutes.
Conveyance self-test routine
recommended polling time: 	 (   5) minutes.
SCT capabilities: 	       (0x7035)	SCT Status supported.
					SCT Feature Control supported.
					SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0027   184   176   021    Pre-fail  Always       -       3791
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       44
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   084   083   000    Old_age   Always       -       11759
 10 Spin_Retry_Count        0x0032   100   253   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   253   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       44
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       26
193 Load_Cycle_Count        0x0032   001   001   000    Old_age   Always       -       793625
194 Temperature_Celsius     0x0022   107   102   000    Old_age   Always       -       40
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   200   200   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       0

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

sde

smartctl -d ata -a /dev/sde
smartctl 6.6 2017-11-05 r4594 [x86_64-linux-4.19.0-24-amd64] (local build)
Copyright (C) 2002-17, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Device Model:     ST2000DM005-2CW102
Serial Number:    ZFM1ZE1Y
LU WWN Device Id: 5 000c50 0c7d09e03
Firmware Version: 0001
User Capacity:    2000398934016 bytes [2,00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    5425 rpm
Form Factor:      3.5 inches
Device is:        Not in smartctl database [for details use: -P showall]
ATA Version is:   ACS-3 T13/2161-D revision 5
SATA Version is:  SATA 3.1, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is:    Wed Jun 21 16:05:21 2023 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x00)	Offline data collection activity
					was never started.
					Auto Offline Data Collection: Disabled.
Self-test execution status:      (   0)	The previous self-test routine completed
					without error or no self-test has ever
					been run.
Total time to complete Offline
data collection: 		(    0) seconds.
Offline data collection
capabilities: 			 (0x73) SMART execute Offline immediate.
					Auto Offline data collection on/off support.
					Suspend Offline collection upon new
					command.
					No Offline surface scan supported.
					Self-test supported.
					Conveyance Self-test supported.
					Selective Self-test supported.
SMART capabilities:            (0x0003)	Saves SMART data before entering
					power-saving mode.
					Supports SMART auto save timer.
Error logging capability:        (0x01)	Error logging supported.
					General Purpose Logging supported.
Short self-test routine
recommended polling time: 	 (   1) minutes.
Extended self-test routine
recommended polling time: 	 ( 252) minutes.
Conveyance self-test routine
recommended polling time: 	 (   2) minutes.
SCT capabilities: 	       (0x30a5)	SCT Status supported.
					SCT Data Table supported.

SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000f   083   064   006    Pre-fail  Always       -       215966124
  3 Spin_Up_Time            0x0003   099   099   000    Pre-fail  Always       -       0
  4 Start_Stop_Count        0x0032   100   100   020    Old_age   Always       -       16
  5 Reallocated_Sector_Ct   0x0033   100   100   010    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x000f   086   060   045    Pre-fail  Always       -       388182955
  9 Power_On_Hours          0x0032   080   080   000    Old_age   Always       -       18360 (123 42 0)
 10 Spin_Retry_Count        0x0013   100   100   097    Pre-fail  Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   020    Old_age   Always       -       16
183 Runtime_Bad_Block       0x0032   100   100   000    Old_age   Always       -       0
184 End-to-End_Error        0x0032   100   100   099    Old_age   Always       -       0
187 Reported_Uncorrect      0x0032   100   100   000    Old_age   Always       -       0
188 Command_Timeout         0x0032   100   100   000    Old_age   Always       -       0
189 High_Fly_Writes         0x003a   100   100   000    Old_age   Always       -       0
190 Airflow_Temperature_Cel 0x0022   057   053   040    Old_age   Always       -       43 (Min/Max 33/47)
191 G-Sense_Error_Rate      0x0032   100   100   000    Old_age   Always       -       0
192 Power-Off_Retract_Count 0x0032   100   100   000    Old_age   Always       -       687
193 Load_Cycle_Count        0x0032   099   099   000    Old_age   Always       -       2143
194 Temperature_Celsius     0x0022   043   047   000    Old_age   Always       -       43 (0 24 0 0 0)
195 Hardware_ECC_Recovered  0x001a   083   064   000    Old_age   Always       -       215966124
197 Current_Pending_Sector  0x0012   100   100   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0010   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x003e   200   200   000    Old_age   Always       -       0
240 Head_Flying_Hours       0x0000   100   253   000    Old_age   Offline      -       17879 (77 164 0)
241 Total_LBAs_Written      0x0000   100   253   000    Old_age   Offline      -       38729731044
242 Total_LBAs_Read         0x0000   100   253   000    Old_age   Offline      -       57216322356

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

Pour info sdb est un disque à part et monté en dehors du raid (ok soucis) et mon système est monté sur sdf. Et j’ai également une sauvegarde de mon raid sur un autre disque (mais qui remonte au 1er juin…

*****

J’espère que geole passera dans le coin, il m’a bien dépanné d’une autre erreur de RAID5 il y a 2 ans (https://forum.ubuntu-fr.org/viewtopic.php?id=2063066)

Dernière modification par Veemon (Le 12/07/2023, à 18:31)

Hors ligne

#2 Le 21/06/2023, à 19:36

geole

Re : [Non résolu] RAID5 qui ne démarre pas

Bonjour.
Je suis en train de lire et tenter de comprendre la cause initiale.
Je pense que c'est SDA avec un secteur illisible qui a empêché le redemarrage

197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       1

Mais tu as fais pas mal de choses après.... dont il faudra que je comprenne.

Je note avec plaisir  que tu as une sauvegarde...
Pour info, tes trois partitions sont dans un raids.
On ne  fait pas trois fsck des partitions mais un seul fsck /dev/md0 

Pour la suite, j'hésite entre tenter de démarrer le raids ou  déja dupliquer sda avec ddrescue  dans un nouveau disque.

Je viens de relire l'ancienne discussion.......les fsck m'avaient pas fonctionné.

On sait que le recovery a passé. donc il est probable que SDA1 ait été modifié et lorsque je vois cela

mdadm --detail /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Wed Jun 21 16:40:23 2023
        Raid Level : raid5
     Used Dev Size : 1953381376 (1862.89 GiB 2000.26 GB)
      Raid Devices : 3
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Wed Jun 21 17:26:55 2023
             State : active, FAILED, Not Started 
    Active Devices : 1
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 1

Je comprends que le raids est composé de trois disques dont un spare. Il en reste donc 2, on devrait pouvoir cependant booter.

Dernière modification par geole (Le 21/06/2023, à 21:50)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#3 Le 21/06/2023, à 21:09

geole

Re : [Non résolu] RAID5 qui ne démarre pas

mdadm --detail /dev/md0
/dev/md0:
       Creation Time : Wed Jun 21 16:40:23 2023
       Used Dev Size : 1953381376 (1862.89 GiB 2000.26 GB)
      Raid Devices : 3
     Total Devices : 2
       Persistence : Superblock is persistent
       Update Time : Wed Jun 21 17:26:55 2023
             State : active, FAILED, Not Started 
    Active Devices : 1
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 1
            Events : 3027
    Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       -       0        0        1      removed
       -       0        0        2      removed
       -       8        1        0      sync   /dev/sda1
       -       8       65        2      spare rebuilding   /dev/sde1

Le détail de mdadm  arrive un peu tard mais il explique pourquoi, il a été refusé au montage.

mdadm -E /dev/sd[ace]1
/dev/sda1:
  Creation Time : Wed Jun 21 16:40:23 2023
    Update Time : Wed Jun 21 17:26:55 2023
         Events : 3027
    Device Role : Active device 0
   Array State : A.A ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdc1
        Creation Time : Wed Jun 21 16:40:23 2023
        Update Time : Wed Jun 21 17:25:04 2023 
         Events : 516
     Device Role : Active device 1
   Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sde1:
    Creation Time : Wed Jun 21 16:40:23 2023
    Raid Devices : 3
    Update Time : Wed Jun 21 17:26:55 2023
    Events : 3027
   Device Role : Active device 2
   Array State : A.A ('A' == active, '.' == missing, 'R' == replacing)

Les partitions SDA1 et SDD1 sont à l'évènement  3027  alors que SDC1 est à l'évènement 516. Donc un sacré retard à l'allumage. Je ne peux pas savoir depuis quand.
Il est donc passé en spare assez naturellement pour être reconstruit.

Maintenant, il y a probablement qu'un seul disque émetteur car SDA1 est en mauvais état.
Je confirme l'achat d'un disque et la duplication par ddrescue de SDA

Pour enquêter, peux-tu donner ces retours.

journalctl  --no-pager -g sdc
journalctl --no-pager -b -g sda

Dernière modification par geole (Le 21/06/2023, à 21:48)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#4 Le 21/06/2023, à 22:13

Veemon

Re : [Non résolu] RAID5 qui ne démarre pas

Bonsoir geole,

Merci pour tes réponses. J’ai commandé un nouveau disque cette après-midi.

Pour fsck :

fsck /dev/md0
fsck from util-linux 2.33.1
e2fsck 1.44.5 (15-Dec-2018)
fsck.ext2: Argument invalide while trying to open /dev/md0

The superblock could not be read or does not describe a valid ext2/ext3/ext4
filesystem.  If the device is valid and it really contains an ext2/ext3/ext4
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
    e2fsck -b 8193 <device>
 or
    e2fsck -b 32768 <device>

Concernant les 2 commandes de journalctl :

Compiled without pattern matching support
geole a écrit :

Je comprends que le raids est composé de trois disques dont un spare. Il en reste donc 2, on devrait pouvoir cependant booter.

Je m’étais aussi dit ça lorsque mdadm avait reconstruit la grappe… « avec 2 disque c’est bon, je retrouve mes données et je pourrais changer le disque défaillant » Mais au final le RAID ne se monte pas…
Ce que je ne comprends pas c’est que pour mdadm les disques sont en état « removed ».
Alors question un peu bête, pourrait-on dans ce cas les réajouter ? avec par exemple : « mdadm /dev/md0 --add /dev/sdX » ??


*****************

En farfouillant dans les journaux j’ai trouvé en lien avec sda :

juin 21 18:18:13 X kernel: md/raid:md127: device sda1 operational as raid disk 0
juin 21 18:18:13 X kernel: md/raid:md127: not enough operational devices (2/3 failed)
juin 21 18:18:13 X kernel: md/raid:md127: failed to run raid set.
juin 21 18:18:13 X kernel: md: pers->run() failed ...

et très récemment:

juin 21 23:18:30 X smartd[531]: Device: /dev/sda [SAT], 1 Currently unreadable (pending) sectors

Alors si c’est le cas, je suis dégoûté car je pensais que j’avais mis en place un système d’alerte qui me préviendrait si un disque venait à tomber en panne… sad

Dernière modification par Veemon (Le 21/06/2023, à 22:24)

Hors ligne

#5 Le 21/06/2023, à 22:33

geole

Re : [Non résolu] RAID5 qui ne démarre pas

Le disque n'est pas en panne ( failing now) Ce que tu as probablement fait come test, Mais il a un secteur illisible.  Il faut tester sur le code 197


La partition SDC1 est desynchronisée et SDA est en mauvais état

Regarde aussi ce retour.

journalctl  --no-pager -g md0

AJOUT
Donne aussi ce retour

sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT

A propos des fsck sur un raid en bon état

sudo fsck /dev/md127
fsck de util-linux 2.37.2
e2fsck 1.46.5 (30-Dec-2021)
/dev/md127 : propre, 13/65408 fichiers, 8853/261632 blocs

sudo fsck -fv /dev/sda24
fsck de util-linux 2.37.2
a@p:~$ 

Dernière modification par geole (Le 22/06/2023, à 06:46)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#6 Le 22/06/2023, à 08:34

Veemon

Re : [Non résolu] RAID5 qui ne démarre pas

L’idéale serait donc de resynchroniser SDC1 pour que je puisse ré-accéder aux données, changer SDA et tout réparer ? Sauf que la synchronisation de SDC échoue… est-ce lié au fait que SDA soit en mauvais état ?

Le retour de lsblk

lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
  SIZE NAME                                                                                      FSTYPE            LABEL          MOUNTPOINT
  100G loop0                                                                                     ext4                             
  100G └─docker-8:82-14680143-pool                                                                                                
   10G   └─docker-8:82-14680143-235621d1db6f6373dae78f7ac833c2a3824650734d9f795ac532bf737b7d2007 ext4                             /var/lib/docker/devicemapper/mnt/235621d1db6f6373dae78f7ac833c2a3824650734d9f795ac532bf737b7d2007
    2G loop1                                                                                                                      
  100G └─docker-8:82-14680143-pool                                                                                                
   10G   └─docker-8:82-14680143-235621d1db6f6373dae78f7ac833c2a3824650734d9f795ac532bf737b7d2007 ext4                             /var/lib/docker/devicemapper/mnt/235621d1db6f6373dae78f7ac833c2a3824650734d9f795ac532bf737b7d2007
  1,8T sda                                                                                                                        
  1,8T └─sda1                                                                                    linux_raid_member x:0 
  1,4T sdb                                                                                                                        
  1,4T └─sdb1                                                                                    ext4                             /media/kodi
  1,8T sdc                                                                                                                        
  1,8T └─sdc1                                                                                    linux_raid_member x:0 
465,8G sdd                                                                                       ext4                             
  1,8T sde                                                                                                                        
  1,8T └─sde1                                                                                    linux_raid_member x:0 
298,1G sdf                                                                                                                        
    1K ├─sdf1                                                                                                                     
294,4G ├─sdf2                                                                                    ext4                             /
  3,7G └─sdf5                                                                                    swap                             [SWAP]
  3,7T sdg                                                                                       ext4                             /media/usb/expansion

pour info sdg est mon disque de sauvegarde ; sdb et sdd du stockage divers sans intérêt.

journalctl  --no-pager -g md0
Compiled without pattern matching support

En faisant une recherche manuelle :

juin 21 18:47:15 x kernel: md: md0 stopped.
juin 21 18:47:15 x kernel: md: md0 stopped.
juin 21 18:47:15 x kernel: md: kicking non-fresh sdc1 from array!
juin 21 18:47:15 x udisksd[529]: The function 'bd_md_examine' called, but not implemented!
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/degraded': Failed to open file “/sys/devices/virtual/block/md0/md/degraded”: No such file or directory (g-file-error-quark, 4)
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/sync_action': Failed to open file “/sys/devices/virtual/block/md0/md/sync_action”: No such file or directory (g-file-error-quark, 4)
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/sync_completed': Failed to open file “/sys/devices/virtual/block/md0/md/sync_completed”: No such file or directory (g-file-error-quark,
juin 21 18:47:15 x udisksd[529]: Unable to resolve /sys/devices/virtual/block/md0/md/dev-sdc1/block symlink
juin 21 18:47:15 x kernel: md/raid:md0: device sda1 operational as raid disk 0
juin 21 18:47:15 x kernel: md/raid:md0: not enough operational devices (2/3 failed)
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/degraded': Failed to open file “/sys/devices/virtual/block/md0/md/degraded”: No such file or directory (g-file-error-quark, 4)
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/sync_action': Failed to open file “/sys/devices/virtual/block/md0/md/sync_action”: No such file or directory (g-file-error-quark, 4)
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/sync_completed': Failed to open file “/sys/devices/virtual/block/md0/md/sync_completed”: No such file or directory (g-file-error-quark,
juin 21 18:47:15 x kernel: md/raid:md0: failed to run raid set.
juin 21 18:47:15 x kernel: md: pers->run() failed ...
juin 21 18:47:15 x kernel: md0: ADD_NEW_DISK not supported
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/degraded': Failed to open file “/sys/devices/virtual/block/md0/md/degraded”: No such file or directory (g-file-error-quark, 4)
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/sync_action': Failed to open file “/sys/devices/virtual/block/md0/md/sync_action”: No such file or directory (g-file-error-quark, 4)
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/sync_completed': Failed to open file “/sys/devices/virtual/block/md0/md/sync_completed”: No such file or directory (g-file-error-quark,
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/degraded': Failed to open file “/sys/devices/virtual/block/md0/md/degraded”: No such file or directory (g-file-error-quark, 4)
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/sync_action': Failed to open file “/sys/devices/virtual/block/md0/md/sync_action”: No such file or directory (g-file-error-quark, 4)
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/sync_completed': Failed to open file “/sys/devices/virtual/block/md0/md/sync_completed”: No such file or directory (g-file-error-quark,
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/degraded': Failed to open file “/sys/devices/virtual/block/md0/md/degraded”: No such file or directory (g-file-error-quark, 4)
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/sync_action': Failed to open file “/sys/devices/virtual/block/md0/md/sync_action”: No such file or directory (g-file-error-quark, 4)
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/sync_completed': Failed to open file “/sys/devices/virtual/block/md0/md/sync_completed”: No such file or directory (g-file-error-quark,
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/degraded': Failed to open file “/sys/devices/virtual/block/md0/md/degraded”: No such file or directory (g-file-error-quark, 4)
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/sync_action': Failed to open file “/sys/devices/virtual/block/md0/md/sync_action”: No such file or directory (g-file-error-quark, 4)
juin 21 18:47:15 x udisksd[529]: Error reading sysfs attr `/sys/devices/virtual/block/md0/md/sync_completed': Failed to open file “/sys/devices/virtual/block/md0/md/sync_completed”: No such file or directory (g-file-error-quark,
juin 21 18:48:30 x smartd[531]: Device: /dev/sda [SAT], 1 Currently unreadable (pending) sectors
…
juin 21 19:06:09 x kernel: EXT4-fs (md0): unable to read superblock
juin 21 19:06:09 x kernel: EXT4-fs (md0): unable to read superblock
juin 21 19:06:09 x kernel: EXT4-fs (md0): unable to read superblock
…
juin 21 19:07:41 x kernel: md/raid:md0: failed to run raid set.
juin 21 19:07:41 x kernel: md/raid:md0: not enough operational devices (2/3 failed)
juin 21 19:07:41 x kernel: md/raid:md0: device sda1 operational as raid disk 0
…
juin 21 19:18:30 x kernel: md/raid:md0: device sda1 operational as raid disk 0
juin 21 19:18:30 x kernel: md/raid:md0: not enough operational devices (2/3 failed)
juin 21 19:18:30 x kernel: md/raid:md0: failed to run raid set.
juin 21 19:18:30 x kernel: md: pers->run() failed ...

J’ai tout remis ce qu’il y avait dans le journal avec md0.

Si je lis bien SDA est opérationnal avec un secteur illisible…

Merci pour le retour d’un fsck propre (je me le note quelque part) smile

Dernière modification par Veemon (Le 22/06/2023, à 08:37)

Hors ligne

#7 Le 22/06/2023, à 09:14

geole

Re : [Non résolu] RAID5 qui ne démarre pas

C'est dommages que ton serveur ne conserve pas l'historique des événements....

Je suis surpris que la commande fsck ne donne pas le type de partition.. ( Mais le serveur n'est peut-être pas sous ubuntu)

On voit la ligne qui éjecte SDC1
juin 21 18:47:15 x kernel: md: kicking non-fresh sdc1 from array!
juin

On n'en saura donc  jamais la cause

comme SDA a un secteur illisible, on peut penser que c'est pour cela que la reconstruction foire..

Saura-tu tout seul faire le ddrescue?

Cette fois-ci, la commande du milieu n'aura pas l'option -r 7 mais plutôt -r 123 voir -r -1

man ddrescue a écrit :

-r n
--retry-passes=n
Exit after the given number of retry passes. Defaults to 0. -1 means infinity. Every bad sector is tried only once in each pass. The direction is reversed after each pass. To retry bad sectors detected on a previous run, you must specify a non-zero number of retry passes.
A command like 'ddrescue -f -r-1 /dev/sdcard /dev/null mapfile' can be used to read repeatedly until the device controller succeeds and remaps the bad sectors internally.

A mon avis, ce secteur illisible est important ( un super bloc?)
il faudra à tout prix pouvoir le lire en essayant de multiples fois.

Heureusement que tu as un backup.

Dernière modification par geole (Le 22/06/2023, à 09:36)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#8 Le 22/06/2023, à 09:57

geole

Re : [Non résolu] RAID5 qui ne démarre pas

Veemon a écrit :

Bonsoir geole,

Merci pour tes réponses. J’ai commandé un nouveau disque cette après-midi.

Pour fsck :

fsck /dev/md0
fsck from util-linux 2.33.1
e2fsck 1.44.5 (15-Dec-2018)
fsck.ext2: Argument invalide while trying to open /dev/md0

The superblock could not be read or does not describe a valid ext2/ext3/ext4
filesystem.  If the device is valid and it really contains an ext2/ext3/ext4
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
    e2fsck -b 8193 <device>
 or
    e2fsck -b 32768 <device>

(

J'avais oublié cette piste....
essaie

sudo e2fsck -b 32768  /dev/md0

Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#9 Le 22/06/2023, à 10:27

Veemon

Re : [Non résolu] RAID5 qui ne démarre pas

Oui mon serveur est sous Debian.
Concernant l’historique des événements j’ai rien changé là dessus, ça doit être les valeurs par défauts.

geole a écrit :

A mon avis, ce secteur illisible est important ( un super bloc?)

Il n’y a pas d’outils pour répondre à cette question ? Savoir où se situe ce secteur illisible est important…
J’ai un lointain souvenir qu’une sorte de dd if=/dev/sda1 of=/dev/null peut donner en erreur la position illisible ? non ?

Si j’ai bien relus les docs et l’ancienne discussion ma commande ddrescue serait :

ddrescue   -d  -f  -R  -r123   -b4096  -c1    /dev/sda    /dev/sdX    /var/log/ddrescue_SDA.log

Avec sdX le nouveau disque que je vais recevoir.

J’avais essayé de mon côté e2fsck mais même en changeant les chiffres ça n’avait pas marché.

e2fsck -b 32768  /dev/md0
e2fsck 1.44.5 (15-Dec-2018)
e2fsck: Argument invalide while trying to open /dev/md0

The superblock could not be read or does not describe a valid ext2/ext3/ext4
filesystem.  If the device is valid and it really contains an ext2/ext3/ext4
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
    e2fsck -b 8193 <device>
 or
    e2fsck -b 32768 <device>

Il y a 2 ans on avait aussi essayé de copier un superblock depuis un autre disque avec dd.
Ne pourrait-on pas essayer de copier par exemple le superblock qui serait dupliqué ailleurs sur le disque pour le remettre à une position qui pourrait aider e2fsck ? (Je dis ça sans connaissance sur les disques durs…)
À nouveau merci pour ton aide

Dernière modification par Veemon (Le 22/06/2023, à 10:32)

Hors ligne

#10 Le 23/06/2023, à 10:20

geole

Re : [Non résolu] RAID5 qui ne démarre pas

1) Pour le secteur illisible, peux-tu donner ce retour

journalctl  | grep  "I/O error" | grep  "sector" | cut -d" " -f9-12 |sort | uniq -c

2) ddrescue
La première commande de duplication de  ce qui est lisible.

sudo ddrescue   -f    -n   -b4096      /dev/sda    /dev/sdX    /var/log/ddrescue_SDA.log

La seconde commande de duplication de ce qui n’est pas lisible est bonne

sudo  ddrescue   -d  -f  -R  -r123   -b4096  -c1    /dev/sda    /dev/sdX    /var/log/ddrescue_SDA.log

3) Pour fsck, je suis embêté, il y a peut-être un autre problème qui se cache derrière ce rejet.
Nouveaux essais avec les autres valeurs  traditionnelles: Superblocs de secours stockés sur les blocs :
        32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
        4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968, 102400000

sudo e2fsck -b 98304   /dev/md0
sudo e2fsck -b 163840    /dev/md0

etc.....

Peut-être que sous debian, il y a une autre façon d’implémenter le RAID  ou que le commande fsck ne convient pas

4) Pour les super blocs, tu confonds, il s’agissait probablement de sauver les tables de partition.
    Je ne sais pas faire.  Il existe peut-être un script mais il est certainement trop tard car la partition SDC1 a certainement commencé à s’écrire vu que

cat /proc/mdstat 
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md0 : active raid5 sde1[3] sdc1[1] sda1[0]
      3906762752 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [UU_]
      [>....................]  recovery =  0.0% (1820060/1953381376) finish=250.1min speed=130004K/sec
      bitmap: 0/15 pages [0KB], 65536KB chun

Voici le principe de ce qu’il faudrait faire:
Imaginons que le secteur 1000  de la partitions SDA1 soit illisible.
  Il faut lire les secteurs 1000 des partitions SDC1 et SDD1  et faire leur somme  en binaire sans report pour reconstituer le secteur 1000 de SDA1
0+0=0
0+1=1
1+0=1
1+1=0
exemple
SDC1    10101010101000001111.......
SDD1    10000111111010101000....
Donne   00101101010010100111... pour SDA1

Ajout: Une petite commande récapitulative fort utile à essayer.

for i in a c d ; do echo ==== sd$i ==== ;sudo smartctl  -a /dev/sd$i | egrep "Pending|Reallocated|On_Hours"; sudo mdadm --examine "/dev/sd$i"1 |  egrep "Update Time|Events";echo;done

Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#11 Le 24/06/2023, à 12:44

Veemon

Re : [Non résolu] RAID5 qui ne démarre pas

Bonjour,

info : J’ai installé mon nouveau disque après redémarrage du serveur j’obtiens la liste des disques (sd) suivant :

a : RAID secteur PT
b : kodi
c : RAID désync
d : nouveau HDD
e : RAID ok
f : système
g : backup

1) la commande n’a rien retournée et je n’ai rien vu dans les log concernant les I/O error. D’après la loi de Murphy ça serait le disque du système qui serait en train de rendre l’âme… Mais pour ça pas d’inquiétude j’ai un backup du système (root, etc, var, lib…)

2) j’ai pu lancer la première commande ddrescue. À ma dernière surveillance l’opération en était à plus de 75%.
Mais en me reconnectant via ssh au serveur j’ai eu l’erreur suivante :

Segmentation fault
-bash: /usr/bin/id: Erreur d'entrée/sortie

Il faut que j’accède directement au serveur pour voir plus en détail ce qui se passe. Le problème est que je n’y aurait pas accès en physique avant lundi soir (26/6)…
Et depuis ma connexion ssh n’aboutit même plus… (ssh: connect to host X port 22: No route to host)

3) je n’ai pas pu essayer la commande

4) Effectivement j’ai du confondre avec la table des partitions ^^. Merci pour cette info de superblocs

5) Très bonne commande récapitulative que je vais intégrer à mon script de monitoring.

for i in a b c d e f ; do echo ==== sd$i ==== ;sudo smartctl  -a /dev/sd$i | egrep "Pending|Reallocated|On_Hours"; sudo mdadm --examine "/dev/sd$i"1 |  egrep "Update Time|Events";echo;done
==== sda ====
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  9 Power_On_Hours          0x0032   027   027   000    Old_age   Always       -       53372
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       1
    Update Time : Wed Jun 21 17:26:55 2023
         Events : 3027

==== sdc ====
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  9 Power_On_Hours          0x0032   084   083   000    Old_age   Always       -       11807
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
    Update Time : Wed Jun 21 17:25:04 2023
         Events : 516

==== sdd ====
  5 Reallocated_Sector_Ct   0x0033   100   100   010    Pre-fail  Always       -       0
  9 Power_On_Hours          0x0032   100   100   000    Old_age   Always       -       0 (244 145 0)
197 Current_Pending_Sector  0x0012   100   100   000    Old_age   Always       -       0
mdadm: cannot open /dev/sdd1: No such file or directory

==== sde ====
  5 Reallocated_Sector_Ct   0x0033   100   100   010    Pre-fail  Always       -       0
  9 Power_On_Hours          0x0032   079   079   000    Old_age   Always       -       18409 (209 8 0)
197 Current_Pending_Sector  0x0012   100   100   000    Old_age   Always       -       0
    Update Time : Wed Jun 21 17:26:55 2023
         Events : 3027

Je reviendrais donner des nouvelles après le week-end.

Hors ligne

#12 Le 27/06/2023, à 08:01

Veemon

Re : [Non résolu] RAID5 qui ne démarre pas

Me revoilà,
J’ai redémarré mon serveur à la main, parce qu’il s’était bloqué… comment pourquoi… mystère…

Le premier ddrescue s’est très bien passé :

# Mapfile. Created by GNU ddrescue version 1.23
# Command line: ddrescue -f -n -b4096 /dev/sda /dev/sdd /var/log/ddrescue_SDA_1.log
# Start time:   2023-06-23 17:30:45
# Current time: 2023-06-24 00:07:20
# Finished
# current_pos  current_status  current_pass
0x1D1C1110000     +               1
#      pos        size  status
0x00000000  0x1D1C1116000  +

et depuis hier fin d’après-midi le second ddrescue est toujours en cours

# Mapfile. Created by GNU ddrescue version 1.23
# Command line: ddrescue -d -f -R -r123 -b4096 -c1 /dev/sda /dev/sdd /var/log/ddrescue_SDA_2.log
# Start time:   2023-06-26 18:41:46
# Current time: 2023-06-27 08:54:17
# Copying non-tried blocks... Pass 1 (backwards)
# current_pos  current_status  current_pass
0xF964CE3000     ?               1
#      pos        size  status
0x00000000  0xF964CE2000  ?
0xF964CE2000  0xD85C434000  +

L’opération est à 47 %, on est à 0B pour les non-trimmed, non-scraped, bad-sector, bad areas, bad errors. Il semble encore rester 11h d’opérations.
UPADTE :
Le second ddrescue est terminé.

# Mapfile. Created by GNU ddrescue version 1.23
# Command line: ddrescue -d -f -R -r123 -b4096 -c1 /dev/sda /dev/sdd /var/log/ddrescue_SDD.log
# Start time:   2023-06-26 18:41:46
# Current time: 2023-06-27 20:00:49
# Finished
# current_pos  current_status  current_pass
0x00001000     +               1
#      pos        size  status
0x00000000  0x1D1C1116000  +

Il n’y a pas eu d’erreur révélées par ddrescue.

Dernière modification par Veemon (Le 27/06/2023, à 21:28)

Hors ligne

#13 Le 05/07/2023, à 09:45

Veemon

Re : [Non résolu] RAID5 qui ne démarre pas

J’ai essayé de ré-assembler le raid avec tous les disques sains, sans succès.

J’ai essayé de m’attarder un peu plus en détail sur une resynchronisation du disque qui était désynchronisé :

mdadm -v --assemble --run --force --update=resync /dev/md0 /dev/sdd1 /dev/sdc1 /dev/sde1
mdadm: looking for devices for /dev/md0
mdadm: /dev/sdd1 is identified as a member of /dev/md0, slot 0.
mdadm: /dev/sdc1 is identified as a member of /dev/md0, slot 1.
mdadm: /dev/sde1 is identified as a member of /dev/md0, slot 2.
mdadm: forcing event count in /dev/sdc1(1) from 516 upto 3027
mdadm: clearing FAULTY flag for device 1 in /dev/md0 for /dev/sdc1
mdadm: Marking array /dev/md0 as 'clean'
mdadm: added /dev/sdc1 to /dev/md0 as 1
mdadm: added /dev/sde1 to /dev/md0 as 2
mdadm: added /dev/sdd1 to /dev/md0 as 0
mdadm: /dev/md0 has been started with 2 drives (out of 3) and 1 rebuilding.


cat /proc/mdstat 
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] 
md0 : active (auto-read-only) raid5 sdd1[0] sde1[3] sdc1[1]
      3906762752 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [UU_]
      bitmap: 0/15 pages [0KB], 65536KB chunk

unused devices: <none>


mdadm --examine /dev/md0 
mdadm: No md superblock detected on /dev/md0.


for i in a c d e ; do echo ==== sd$i ==== ;sudo smartctl  -a /dev/sd$i | egrep "Pending|Reallocated|On_Hours"; sudo mdadm --examine "/dev/sd$i"1 |  egrep "Update Time|Events";echo;done
==== sda ====
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  9 Power_On_Hours          0x0032   027   027   000    Old_age   Always       -       53588
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       1
    Update Time : Wed Jun 21 17:26:55 2023
         Events : 3027

==== sdc ====
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  9 Power_On_Hours          0x0032   084   083   000    Old_age   Always       -       12016
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
    Update Time : Wed Jun 21 17:25:04 2023
         Events : 3027

==== sdd ====
  5 Reallocated_Sector_Ct   0x0033   100   100   010    Pre-fail  Always       -       0
  9 Power_On_Hours          0x0032   100   100   000    Old_age   Always       -       282 (174 91 0)
197 Current_Pending_Sector  0x0012   100   100   000    Old_age   Always       -       0
    Update Time : Wed Jun 21 17:26:55 2023
         Events : 3027

==== sde ====
  5 Reallocated_Sector_Ct   0x0033   100   100   010    Pre-fail  Always       -       0
  9 Power_On_Hours          0x0032   079   079   000    Old_age   Always       -       18691 (200 182 0)
197 Current_Pending_Sector  0x0012   100   100   000    Old_age   Always       -       0
    Update Time : Wed Jun 21 17:26:55 2023
         Events : 3027

Je n’ai pas l’impression qu’il y ait d’erreur :

/dev/md0:
           Version : 1.2
     Creation Time : Wed Jun 21 16:40:23 2023
        Raid Level : raid5
        Array Size : 3906762752 (3725.78 GiB 4000.53 GB)
     Used Dev Size : 1953381376 (1862.89 GiB 2000.26 GB)
      Raid Devices : 3
     Total Devices : 3
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Wed Jun 21 17:26:55 2023
             State : clean, degraded 
    Active Devices : 2
   Working Devices : 3
    Failed Devices : 0
     Spare Devices : 1

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : bitmap

              Name : X:0  (local to host X)
              UUID : 6aabd0b8:693906fd:81fa0fad:44f89399
            Events : 3027

    Number   Major   Minor   RaidDevice State
       0       8       49        0      active sync   /dev/sdd1
       1       8       33        1      active sync   /dev/sdc1
       3       8       65        2      spare rebuilding   /dev/sde1

D’ici la fin de semaine je vais tenter de lui signaler que le disque sde est défaillant, de le retirer puis de le rajouter à la grappe raid. Voir si ça fonctionne…

Sinon tant pis j’efface tous les disques pour recréer un RAID de 0 et y remettre la sauvegarde du 1er juin…

Edit :
En fait j’ai toujours l’erreur du superblock… mad

e2fsck -f /dev/md0 
e2fsck 1.44.5 (15-Dec-2018)
ext2fs_open2: Bad magic number in super-block
e2fsck: Superblock invalid, trying backup blocks...
e2fsck: Bad magic number in super-block while trying to open /dev/md0

The superblock could not be read or does not describe a valid ext2/ext3/ext4
filesystem.  If the device is valid and it really contains an ext2/ext3/ext4
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
    e2fsck -b 8193 <device>
 or
    e2fsck -b 32768 <device>

Dernière modification par Veemon (Le 05/07/2023, à 10:09)

Hors ligne

#14 Le 05/07/2023, à 10:25

geole

Re : [Non résolu] RAID5 qui ne démarre pas

Bonjour.
Ce week-end, j'ai installé un raid tout neuf en EXT4 avec un disque au lieu d'une partition.  Après l'avoir chargé pendant des heures, au redémarrage de l'ordinateur, j'ai eu exactement la même erreur. Il y a certainement  une option pour dire que les super-blocs n'existent pas. J'ai préféré recommencer en mettant des partitions au lieu des disques, je prévoyais de chercher une option à mes moments perdus.
J'ai vu l'option  --zero-superblock
Au point où tu en es, tu peux la tenter.

Dernière modification par geole (Le 05/07/2023, à 10:28)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#15 Le 05/07/2023, à 18:53

Veemon

Re : [Non résolu] RAID5 qui ne démarre pas

Je ne me souviens plus trop comment j’avais créé mon raid… Mais je crois que j’avais créé des partitions en suivant le tuto du wiki-ubuntu.

J’ai testé l’option zero-superblock. D’après ce que j’ai lu c’est à appliquer sur le raid directement (md0) ?

mdadm -v --zero-superblock /dev/md0 
mdadm: Unrecognised md component device - /dev/md0

mdadm -E /dev/md0 
mdadm: No md superblock detected on /dev/md0.

Bon ça ne marche pas non plus…

cat /proc/mdstat 
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] 
md0 : active (auto-read-only) raid5 sdd1[0] sde1[3] sdc1[1]
      3906762752 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [UU_]
      bitmap: 0/15 pages [0KB], 65536KB chunk

unused devices: <none>

C’est bizarre…
Vois-tu une autre piste ou pas ?

*******

Et le mode B de mdadm, serait-ce utile ou pas ?

-B, --build
    Build a legacy array without superblocks. 

Hors ligne

#16 Le 05/07/2023, à 19:12

geole

Re : [Non résolu] RAID5 qui ne démarre pas

J'ai vu cette documentation
  mdadm --build device -chunk=X --level=Y --raid-devices=Z devices

This usage is similar to --create.  The difference is that it creates
a legacy array without a superblock
.  With these arrays there is no
different between initially creating the array and subsequently
assembling the array, except that hopefully there is useful data
there in the second case.

Donc, tu aurais pu utiliser cette commande  de création  sans super bloc, Il  devrait donc y avoir une option de démarrage  pour le dire  que je ne trouve pas. Je ne suis pas surpris que zero-superbloc  ne soit pas la bonne.


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#17 Le 06/07/2023, à 09:17

Veemon

Re : [Non résolu] RAID5 qui ne démarre pas

J’ai l’impression qu’il y a du mieux…

J’ai recréé le RAID :

mdadm --create /dev/md0 --level=5  --raid-devices=3 /dev/sdd1 /dev/sdc1 /dev/sde1


mdadm --detail /dev/md0 
/dev/md0:
           Version : 1.2
     Creation Time : Wed Jul  5 19:57:46 2023
        Raid Level : raid5
        Array Size : 3906762752 (3725.78 GiB 4000.53 GB)
     Used Dev Size : 1953381376 (1862.89 GiB 2000.26 GB)
      Raid Devices : 3
     Total Devices : 3
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Thu Jul  6 01:31:44 2023
             State : clean 
    Active Devices : 3
   Working Devices : 3
    Failed Devices : 0
     Spare Devices : 0

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : bitmap

              Name : X:0  (local to host X)
              UUID : ba2cdc48:1de5496a:3e0e4c9e:faf056fb
            Events : 3738

    Number   Major   Minor   RaidDevice State
       0       8       49        0      active sync   /dev/sdd1
       1       8       33        1      active sync   /dev/sdc1
       3       8       65        2      active sync   /dev/sde1

Donc là je me dis que tout semble bon, les disques sont OK

Mais lorsque je tente de monter le RAID :

mount /dev/md0 /media/raid
mount: /media/raid: wrong fs type, bad option, bad superblock on /dev/md0, missing codepage or helper program, or other error.

Je tente un fsck :

fsck /dev/md0
fsck from util-linux 2.33.1
e2fsck 1.44.5 (15-Dec-2018)
ext2fs_open2: Bad magic number in super-block
fsck.ext2: Superblock invalid, trying backup blocks...
fsck.ext2: Bad magic number in super-block while trying to open /dev/md0

The superblock could not be read or does not describe a valid ext2/ext3/ext4
filesystem.  If the device is valid and it really contains an ext2/ext3/ext4
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
    e2fsck -b 8193 <device>
 or
    e2fsck -b 32768 <device>
for i in d c e ; do echo ==== sd$i ==== ;sudo smartctl  -a /dev/sd$i | egrep "Pending|Reallocated|On_Hours"; sudo mdadm --examine "/dev/sd$i"1 |  egrep "Update Time|Events";echo;done
==== sdd ====
  5 Reallocated_Sector_Ct   0x0033   100   100   010    Pre-fail  Always       -       0
  9 Power_On_Hours          0x0032   100   100   000    Old_age   Always       -       306 (132 213 0)
197 Current_Pending_Sector  0x0012   100   100   000    Old_age   Always       -       0
    Update Time : Thu Jul  6 01:31:44 2023
         Events : 3738

==== sdc ====
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  9 Power_On_Hours          0x0032   084   083   000    Old_age   Always       -       12039
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
    Update Time : Thu Jul  6 01:31:44 2023
         Events : 3738

==== sde ====
  5 Reallocated_Sector_Ct   0x0033   100   100   010    Pre-fail  Always       -       0
  9 Power_On_Hours          0x0032   079   079   000    Old_age   Always       -       18714 (147 62 0)
197 Current_Pending_Sector  0x0012   100   100   000    Old_age   Always       -       0
    Update Time : Thu Jul  6 01:31:44 2023
         Events : 3738

Je vais essayer de voir ce que je trouve sur le net avec le message d’erreur de mount…

Un lsblk :

sdc       8:32   0   1,8T  0 disk  
└─sdc1    8:33   0   1,8T  0 part  
  └─md0   9:0    0   3,7T  0 raid5 
sdd       8:48   0   1,8T  0 disk  
└─sdd1    8:49   0   1,8T  0 part  
  └─md0   9:0    0   3,7T  0 raid5 
sde       8:64   1   1,8T  0 disk  
└─sde1    8:65   1   1,8T  0 part  
  └─md0   9:0    0   3,7T  0 raid5 

J’ai l’impression que je sois obligé de formater le RAID… (mkfs.ext4 /dev/md0)… dommage je crois que le RAID a retrouvé les données initialement présentes…

Dernière modification par Veemon (Le 06/07/2023, à 09:30)

Hors ligne

#18 Le 06/07/2023, à 09:28

geole

Re : [Non résolu] RAID5 qui ne démarre pas

Bonjour
Sous les sdX le md0 doit  être compris comme /dev/md00   cela correspond  à ta commande de création  MDADM avec allocation des trois partitions

Dernière modification par geole (Le 06/07/2023, à 09:29)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#19 Le 12/07/2023, à 18:28

Veemon

Re : [Non résolu] RAID5 qui ne démarre pas

Bon au final j’ai rien trouvé…

J’ai essayé de refaire des manips de l’ancienne conversation avec testdisk notamment, pour rechercher des superblocks. Mais sans succès, il n’a rien trouvé.

TestDisk 7.0, Data Recovery Utility, April 2015
Christophe GRENIER <grenier@cgsecurity.org>
http://www.cgsecurity.org

Disk /dev/md0 - 4000 GB / 3725 GiB - CHS 976690688 2 4

The harddisk (4000 GB / 3725 GiB) seems too small! (< 18446732 TB / 16777205 TiB)
Check the harddisk size: HD jumpers settings, BIOS detection...

The following partitions can't be recovered:
     Partition               Start        End    Size in sectors
   MS Data               3907226520 11720756119 7813529600
   MS Data               3907226560 11720756159 7813529600
   MS Data               3907229192 11720758791 7813529600
   MS Data               3907230088 11720759687 7813529600
   MS Data               3907232704 11720762303 7813529600
   MS Data               3907234408 11720764007 7813529600
   MS Data               3907235408 11720765007 7813529600
   MS Data               3907242208 11720771807 7813529600
   MS Data               3907243232 11720772831 7813529600
>  MS Data               3907248648 11720778247 7813529600

[ Continue ]
ext4 blocksize=4096 Large_file Sparse_SB Recover, 4000 GB / 3725 GiB

Au passage j’ai lu :

testdisk a écrit :

The harddisk (4000 GB / 3725 GiB) seems too small! (< 18446732 TB / 16777205 TiB)

Est-ce logique ? Parce que pour moi non…

Bref… au final
J’ai recréé un RAID5, je l’ai reformaté. Et là actuellement j’applique ma sauvegarde des données. En principe ça se fini plutôt bien.

Aussi lors du formatage du RAID mke2fs m’a communiqué les superblock :

mke2fs 1.44.5 (15-Dec-2018)
/dev/md0 contains a ext4 file system
	last mounted on /media/raid on Thu Dec 16 09:22:40 2021
Creating filesystem with 976691200 4k blocks and 244178944 inodes
Filesystem UUID: d74be2a4-48a6-4990-97e9-e8fd55255a07
Superblock backups stored on blocks: 
	32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 
	4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968, 
	102400000, 214990848, 512000000, 550731776, 644972544

Allocating group tables: done                            
Writing inode tables: done                            
Creating journal (262144 blocks): done
Writing superblocks and filesystem accounting information: done

Franchement je me dis que de les garder sous le coude pourrait aider à l’avenir… dans 3 ans… ?? lol

Merci beaucoup Geole pour ton aide 3 ans après mon premier incident, t’es toujours là et c’est un grand plaisir !

Dernière modification par Veemon (Le 12/07/2023, à 18:28)

Hors ligne

#20 Le 13/07/2023, à 07:10

geole

Re : [Non résolu] RAID5 qui ne démarre pas

Veemon a écrit :

Au passage j’ai lu :

testdisk a écrit :

The harddisk (4000 GB / 3725 GiB) seems too small! (< 18446732 TB / 16777205 TiB)

Bonjour
Au premier abord, cela parait surprenant mais c'est assez logique à cause de l'évolution probable des partitions.
Exemple:   tu fabriques une partition de 500 go    et tu la supprimes et tu la refabriques avec une taille de 600 Go
testdisk peut trouver la trace de l'ancienne partition et va donc dire qu'il faut 1100 Go pour sauver. Mais en pratique, tu ne sauveras certainement  que l'une des deux.


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#21 Le 18/02/2024, à 18:38

Veemon

Re : [Non résolu] RAID5 qui ne démarre pas

Note pour plus tard...
Nouvel épisode :

Youpi j'ai éteints le serveur...
Au redémarrage un disque du raid n'a pas été détecté par le système. Le RAID s'est lancé 2/3.
En rebranchant le disque, le système l'a redétecté mais un autre disque du raid est passé en S (retour de la commande ls cat /proc/mdstat).
Je me retrouve dans cette situation :

    Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       -       0        0        1      removed
       3       8       65        2      active sync   /dev/sde1

Donc là forcément j'ai arrêté le raid éteins l'ordi.
Au démarrage, je me suis retrouvé dans la même situation que mon post initial. Je savais donc que ça se finirait par la recréation du raid et l'application de la sauvegarde de la veille.

Avant de restaurer la sauvegarde j'ai noté que les Events des disques donné par mdstat se suivaient :

==== sdc ====
    Update Time : Sun Feb 18 15:50:06 2024
         Events : 11083
==== sdd ====
    Update Time : Sun Feb 18 16:50:33 2024
         Events : 11684
==== sde ====
    Update Time : Sun Feb 18 16:52:21 2024
         Events : 11685

Les disques ont dus être désyncronisés ? Mais comment faire pour dire à mdadm de les resynchroniser correctement ? -> peut-être une piste sur ce site : https://www.thomas-krenn.com/en/wiki/Md … and_resync

J'ai donc refais toutes les commandes expliquées dans les messages plus hauts et restaurée ma sauvegarde...

Hors ligne

#22 Le 18/02/2024, à 20:22

geole

Re : [Non résolu] RAID5 qui ne démarre pas

Bonjour.
Je pense que tu as vérifié l'état smartctl de tes disques.

Le lien que tu donnes implique qu'un seul disques est absent.

Avec deux disques absents, c'est fichu mais comme un seul event de difference entre deux disques, il est possible probable? qu'un nouvel assemblage puisse se faire. C'est décrit dans le paraphe 6.1 de la documentation.

Dernière modification par geole (Le 18/02/2024, à 20:39)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne