#1 Le 25/07/2019, à 17:47
- Jayme
reconfiguration RAID
Bonjour,
Je n'arrive pas à m'en sortir!!
J'ai un serveur avec un disque système /dev/sda de 500Go et 3 disques de 2To identiques configurés en RAID.
J'ai eu quelques soucis avec mon disque système, je l'ai changé et réinstallé ubuntu avec la cles USB de votre groupe.
Tout marche mais je n'arrive plus a reconfigurer le RAID.
Je vois bien les disques, j'essaie de recréer la grappe avec: sudo mdadm --create /dev/md0 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1
j'ai comme réponse
mdadm: cannot open /dev/sdb1: Device or resource busy
j'ai changé l'ordre pour voir : sudo mdadm --create /dev/md0 --level=5 --raid-devices=3 /dev/sdd1 /dev/sdc1 /dev/sdb1
la réponse est : mdadm: super1.x cannot open /dev/sdc1: Device or resource busy
mdadm: /dev/sdc1 is not suitable for this array.
mdadm: super1.x cannot open /dev/sdb1: Device or resource busy
mdadm: /dev/sdb1 is not suitable for this array.
mdadm: create aborted
Avant le mauvais fonctionnement de mon disque système la grappe (/dev/md0) fonctionnait parfaitement bien.
je pense avoir sauté des étapes, de plus je ne voudrai pas perdre toutes les données qui sont sur les disques.
Pouvez-vous m'aider ou me renvoyer vers de la doc.
Merci
Hors ligne
#2 Le 26/07/2019, à 10:49
- geole
Re : reconfiguration RAID
Bonjour
Il est possible que les partitions que tu veux mettre en raids soient déjà montées au démarrrage grace à fstab
Peux-tu donner le retour de cette commande
cat /etc/fstab
ou que ton O.S. ait décidé de les monter sans ton avis. Peux-tu faire ces commandes
sudo umount -v /dev/sdb1
sudo umount -v /dev/sdc1
sudo umount -v /dev/sdd1
Si au moins, un démontage a eu lieu, tu peux tenter ta commande d'assemblage. De préférence dans le bon ordre.
Si aucune commande de démontage n'a lieu, je n'ai pas d'autre suggestion à te faire.
Dernière modification par geole (Le 26/07/2019, à 10:51)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#3 Le 27/07/2019, à 23:48
- Jayme
Re : reconfiguration RAID
Bonsoir, quelques précisions : Mon problème disque es arrivé petite à petit depuis que j'ai fait tombé ma tour, le disque système sda1 s'est dégradé.
J'ai booté sur la cles USB j'ai fait un fsck de sda1 j'ai réussi à retrouvé pas mal de fichiers système que j'ai copié sur un disque externe j'ai pu lire le fichier raidtab :
more raidtab
raiddev / dev / md0
RAID niveau 5
nr-RAID-disques 7
NR-rechange-disques 0
persistant superblock 1
parité algorithme symétrique gauche-
morceau de taille 32
raid-disk 0
device / dev / sdb1
raid-disk 1
device / dev / sdc1
raid-disk 2
device / dev / sdd1
puis le fichier fstab :
cat fstab
# /etc/fstab: static file system information.
#
# Use 'blkid' to print the universally unique identifier for a
# device; this may be used with UUID= as a more robust way to name devices
# that works even if disks are added and removed. See fstab(5).
#
# <file system> <mount point> <type> <options> <dump> <pass>
# / was on /dev/sda1 during installation
UUID=cb74db85-40cb-4374-bc5b-8297b3d3e3d3 / ext4 errors=remount-ro 0 1
# swap was on /dev/sda5 during installation
UUID=752d9b51-f83f-47f4-9bf1-70c5f3a72438 none swap sw 0 0
/dev/md0 /home ext4 defaults 0 1
Je devrait m'en sortir, sauf si les disques RAID sont foutus? Quelles étapes maintenant pour récupérér ces disques? dois je utiliser mdadm? ou simplement copier les fichiers raidtab et fstab dans le dossier /etc du nouveau système que je viens d'installer. avec un disque sda1 tout neuf.
Je suis en train de potasser la doc ubuntu sur le RAID en attendant quelques précisions de votre part.
Merci de continuer à m'aider.
Dernière modification par Jayme (Le 27/07/2019, à 23:51)
Hors ligne
#5 Le 28/07/2019, à 09:49
- Jayme
Re : reconfiguration RAID
Bonjour suite de mes essais:
j'ai testé mes disques avec fdisk -l, les disque sdb1 et sdc1 sont ok pour sdd1 :le message : La table de partitions GPT de sauvegarde est corrompue, mais la primaire semble fonctionnelle, elle sera donc utilisée.
Je n'en tiens pas compte et je reconstruit ma grappe en tappant la commande
sudo mdadm --create /dev/md0 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1
j'ai les messages suivants
mdadm: /dev/sdb1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Tue Jun 9 19:39:26 2015
mdadm: partition table exists on /dev/sdb1 but will be lost or
meaningless after creating array
mdadm: /dev/sdc1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Tue Jun 9 19:39:26 2015
mdadm: partition table exists on /dev/sdc1 but will be lost or
meaningless after creating array
Continue creating array? o
Continue creating array? (y/n) y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
/dev/sdd n'apparait pas, je n'en tiens pas compte j'essaie de monter /dev/md0 avec
sudo mount -av
j'ai en retour /mnt/md0 ignoré je suis bloqué, peut etre qu'il faut réparer /dev/mdd mais avec quelle commande fsck?
Merci pour votre réponse.
Hors ligne
#6 Le 28/07/2019, à 10:37
- geole
Re : reconfiguration RAID
Bonjour
Je ne vois pas trop pourquoi SDD1 n'a pas été accroché
Vu que la tour a eu un gros choc, il serait pas mal que tu donnes l'état physique de chacun de tes 4 disques
1) Installer l'application smartctl, voir chapitre 1 de https://doc.ubuntu-fr.org/smartmontools
2) donner les 4 retours de ces commandes
sudo smartctl -s on -a /dev/sda
sudo smartctl -s on -a /dev/sdb
sudo smartctl -s on -a /dev/sdc
sudo smartctl -s on -a /dev/sdd
On va regarder comment est l'état du raids
sudo mdadm --detail /dev/md0
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#7 Le 31/07/2019, à 14:41
- Jayme
Re : reconfiguration RAID
Re,
Pas pu donner une réponse rapidement, je me suis absenté quelques jours. Pas la peine de tester sda, il est tout neuf, c'est le disque avec un nouveau système installé à partir de la cles USB.
SDB
smartctl -s on -a /dev/sdb
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.18.0-25-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Seagate Barracuda 7200.14 (AF)
Device Model: ST2000DM001-1ER164
Serial Number: W4Z0F8QW
LU WWN Device Id: 5 000c50 07c616dc1
Firmware Version: CC25
User Capacity: 2000398934016 bytes [2,00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Rotation Rate: 7200 rpm
Form Factor: 3.5 inches
Device is: In smartctl database [for details use: -P show]
ATA Version is: ACS-2, ACS-3 T13/2161-D revision 3b
SATA Version is: SATA 3.1, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is: Wed Jul 31 15:21:06 2019 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x82) Offline data collection activity
was completed without error.
Auto Offline Data Collection: Enabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: ( 97) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.sudo smartctl -s on -a /dev/sdb
[sudo] Mot de passe de jayme :
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.18.0-25-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Seagate Barracuda 7200.14 (AF)
Device Model: ST2000DM001-1ER164
Serial Number: W4Z0F8QW
LU WWN Device Id: 5 000c50 07c616dc1
Firmware Version: CC25
User Capacity: 2000398934016 bytes [2,00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Rotation Rate: 7200 rpm
Form Factor: 3.5 inches
Device is: In smartctl database [for details use: -P show]
ATA Version is: ACS-2, ACS-3 T13/2161-D revision 3b
SATA Version is: SATA 3.1, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is: Wed Jul 31 15:21:06 2019 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x82) Offline data collection activity
was completed without error.
Auto Offline Data Collection: Enabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: ( 97) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 1) minutes.
Extended self-test routine
recommended polling time: ( 213) minutes.
Conveyance self-test routine
recommended polling time: ( 2) minutes.
SCT capabilities: (0x1085) SCT Status supported.
SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x000f 115 099 006 Pre-fail Always - 90559456
3 Spin_Up_Time 0x0003 097 096 000 Pre-fail Always - 0
4 Start_Stop_Count 0x0032 100 100 020 Old_age Always - 140
5 Reallocated_Sector_Ct 0x0033 100 100 010 Pre-fail Always - 0
7 Seek_Error_Rate 0x000f 082 060 030 Pre-fail Always - 175342759
9 Power_On_Hours 0x0032 061 061 000 Old_age Always - 34819
10 Spin_Retry_Count 0x0013 100 100 097 Pre-fail Always - 0
12 Power_Cycle_Count 0x0032 100 100 020 Old_age Always - 140
183 Runtime_Bad_Block 0x0032 100 100 000 Old_age Always - 0
184 End-to-End_Error 0x0032 100 100 099 Old_age Always - 0
187 Reported_Uncorrect 0x0032 100 100 000 Old_age Always - 0
188 Command_Timeout 0x0032 100 100 000 Old_age Always - 0 0 0
189 High_Fly_Writes 0x003a 100 100 000 Old_age Always - 0
190 Airflow_Temperature_Cel 0x0022 061 051 045 Old_age Always - 39 (Min/Max 35/40)
191 G-Sense_Error_Rate 0x0032 100 100 000 Old_age Always - 0
192 Power-Off_Retract_Count 0x0032 100 100 000 Old_age Always - 57
193 Load_Cycle_Count 0x0032 100 100 000 Old_age Always - 1285
194 Temperature_Celsius 0x0022 039 049 000 Old_age Always - 39 (0 10 0 0 0)
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0010 100 100 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x003e 200 200 000 Old_age Always - 0
240 Head_Flying_Hours 0x0000 100 253 000 Old_age Offline - 34718h+53m+18.224s
241 Total_LBAs_Written 0x0000 100 253 000 Old_age Offline - 16919269660
242 Total_LBAs_Read 0x0000 100 253 000 Old_age Offline - 206488593537
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Short offline Completed without error 00% 34748 -
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 1) minutes.
Extended self-test routine
recommended polling time: ( 213) minutes.
Conveyance self-test routine
recommended polling time: ( 2) minutes.
SCT capabilities: (0x1085) SCT Status supported.
SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x000f 115 099 006 Pre-fail Always - 90559456
3 Spin_Up_Time 0x0003 097 096 000 Pre-fail Always - 0
4 Start_Stop_Count 0x0032 100 100 020 Old_age Always - 140
5 Reallocated_Sector_Ct 0x0033 100 100 010 Pre-fail Always - 0
7 Seek_Error_Rate 0x000f 082 060 030 Pre-fail Always - 175342759
9 Power_On_Hours 0x0032 061 061 000 Old_age Always - 34819
10 Spin_Retry_Count 0x0013 100 100 097 Pre-fail Always - 0
12 Power_Cycle_Count 0x0032 100 100 020 Old_age Always - 140
183 Runtime_Bad_Block 0x0032 100 100 000 Old_age Always - 0
184 End-to-End_Error 0x0032 100 100 099 Old_age Always - 0
187 Reported_Uncorrect 0x0032 100 100 000 Old_age Always - 0
188 Command_Timeout 0x0032 100 100 000 Old_age Always - 0 0 0
189 High_Fly_Writes 0x003a 100 100 000 Old_age Always - 0
190 Airflow_Temperature_Cel 0x0022 061 051 045 Old_age Always - 39 (Min/Max 35/40)
191 G-Sense_Error_Rate 0x0032 100 100 000 Old_age Always - 0
192 Power-Off_Retract_Count 0x0032 100 100 000 Old_age Always - 57
193 Load_Cycle_Count 0x0032 100 100 000 Old_age Always - 1285
194 Temperature_Celsius 0x0022 039 049 000 Old_age Always - 39 (0 10 0 0 0)
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0010 100 100 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x003e 200 200 000 Old_age Always - 0
240 Head_Flying_Hours 0x0000 100 253 000 Old_age Offline - 34718h+53m+18.224s
241 Total_LBAs_Written 0x0000 100 253 000 Old_age Offline - 16919269660
242 Total_LBAs_Read 0x0000 100 253 000 Old_age Offline - 206488593537
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Short offline Completed without error 00% 34748 -
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
SDC
smartctl -s on -a /dev/sdc
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.18.0-25-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Seagate Barracuda 7200.14 (AF)
Device Model: ST2000DM001-1ER164
Serial Number: Z4Z0TKAA
LU WWN Device Id: 5 000c50 07967087b
Firmware Version: CC25
User Capacity: 2000398934016 bytes [2,00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Rotation Rate: 7200 rpm
Form Factor: 3.5 inches
Device is: In smartctl database [for details use: -P show]
ATA Version is: ACS-2, ACS-3 T13/2161-D revision 3b
SATA Version is: SATA 3.1, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is: Wed Jul 31 15:27:19 2019 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x82) Offline data collection activity
was completed without error.
Auto Offline Data Collection: Enabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: ( 80) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 1) minutes.
Extended self-test routine
recommended polling time: ( 217) minutes.
Conveyance self-test routine
recommended polling time: ( 2) minutes.
SCT capabilities: (0x1085) SCT Status supported.
SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x000f 118 099 006 Pre-fail Always - 184680976
3 Spin_Up_Time 0x0003 097 096 000 Pre-fail Always - 0
4 Start_Stop_Count 0x0032 100 100 020 Old_age Always - 147
5 Reallocated_Sector_Ct 0x0033 100 100 010 Pre-fail Always - 0
7 Seek_Error_Rate 0x000f 081 060 030 Pre-fail Always - 167156528
9 Power_On_Hours 0x0032 061 061 000 Old_age Always - 34817
10 Spin_Retry_Count 0x0013 100 100 097 Pre-fail Always - 0
12 Power_Cycle_Count 0x0032 100 100 020 Old_age Always - 137
183 Runtime_Bad_Block 0x0032 096 096 000 Old_age Always - 4
184 End-to-End_Error 0x0032 100 100 099 Old_age Always - 0
187 Reported_Uncorrect 0x0032 100 100 000 Old_age Always - 0
188 Command_Timeout 0x0032 100 100 000 Old_age Always - 0 0 0
189 High_Fly_Writes 0x003a 100 100 000 Old_age Always - 0
190 Airflow_Temperature_Cel 0x0022 061 052 045 Old_age Always - 39 (Min/Max 35/40)
191 G-Sense_Error_Rate 0x0032 100 100 000 Old_age Always - 0
192 Power-Off_Retract_Count 0x0032 100 100 000 Old_age Always - 56
193 Load_Cycle_Count 0x0032 100 100 000 Old_age Always - 1289
194 Temperature_Celsius 0x0022 039 048 000 Old_age Always - 39 (0 10 0 0 0)
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0010 100 100 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x003e 200 195 000 Old_age Always - 35
240 Head_Flying_Hours 0x0000 100 253 000 Old_age Offline - 34716h+40m+51.427s
241 Total_LBAs_Written 0x0000 100 253 000 Old_age Offline - 13336344021
242 Total_LBAs_Read 0x0000 100 253 000 Old_age Offline - 214185074179
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Short offline Completed without error 00% 34746 -
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
SDD
smartctl -s on -a /dev/sdd
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.18.0-25-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Seagate Barracuda 7200.14 (AF)
Device Model: ST2000DM001-1ER164
Serial Number: S4Z0EJFL
LU WWN Device Id: 5 000c50 075baa0b9
Firmware Version: CC25
User Capacity: 2000398934016 bytes [2,00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Rotation Rate: 7200 rpm
Form Factor: 3.5 inches
Device is: In smartctl database [for details use: -P show]
ATA Version is: ACS-2, ACS-3 T13/2161-D revision 3b
SATA Version is: SATA 3.1, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is: Wed Jul 31 15:28:08 2019 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x82) Offline data collection activity
was completed without error.
Auto Offline Data Collection: Enabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: ( 89) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 1) minutes.
Extended self-test routine
recommended polling time: ( 219) minutes.
Conveyance self-test routine
recommended polling time: ( 2) minutes.
SCT capabilities: (0x1085) SCT Status supported.
SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x000f 117 099 006 Pre-fail Always - 147770944
3 Spin_Up_Time 0x0003 097 096 000 Pre-fail Always - 0
4 Start_Stop_Count 0x0032 100 100 020 Old_age Always - 140
5 Reallocated_Sector_Ct 0x0033 100 100 010 Pre-fail Always - 0
7 Seek_Error_Rate 0x000f 075 060 030 Pre-fail Always - 21649200110
9 Power_On_Hours 0x0032 061 061 000 Old_age Always - 34817
10 Spin_Retry_Count 0x0013 100 100 097 Pre-fail Always - 0
12 Power_Cycle_Count 0x0032 100 100 020 Old_age Always - 137
183 Runtime_Bad_Block 0x0032 100 100 000 Old_age Always - 0
184 End-to-End_Error 0x0032 100 100 099 Old_age Always - 0
187 Reported_Uncorrect 0x0032 100 100 000 Old_age Always - 0
188 Command_Timeout 0x0032 100 099 000 Old_age Always - 0 0 1
189 High_Fly_Writes 0x003a 098 098 000 Old_age Always - 2
190 Airflow_Temperature_Cel 0x0022 062 053 045 Old_age Always - 38 (Min/Max 34/40)
191 G-Sense_Error_Rate 0x0032 100 100 000 Old_age Always - 0
192 Power-Off_Retract_Count 0x0032 100 100 000 Old_age Always - 58
193 Load_Cycle_Count 0x0032 100 100 000 Old_age Always - 1284
194 Temperature_Celsius 0x0022 038 047 000 Old_age Always - 38 (0 10 0 0 0)
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0010 100 100 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x003e 200 200 000 Old_age Always - 0
240 Head_Flying_Hours 0x0000 100 253 000 Old_age Offline - 34716h+51m+47.332s
241 Total_LBAs_Written 0x0000 100 253 000 Old_age Offline - 21673499279
242 Total_LBAs_Read 0x0000 100 253 000 Old_age Offline - 223036968916
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Short offline Completed without error 00% 34747 -
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
sudo mdadm --detail /dev/md0
[sudo] Mot de passe de jayme :
/dev/md0:
Version : 1.2
Raid Level : raid0
Total Devices : 3
Persistence : Superblock is persistent
State : inactive
Working Devices : 3
Name : SRV1:0 (local to host SRV1)
UUID : 5857f835:0c20b697:cf84fa0b:1720716d
Events : 2752
Number Major Minor RaidDevice
- 8 49 - /dev/sdd1
- 8 33 - /dev/sdc1
- 8 17 - /dev/sdb1
Voilà ,toutes les sorties demandées.
Merci pour ton temps passé à me dépanner
GJ
Hors ligne
#8 Le 31/07/2019, à 18:07
- geole
Re : reconfiguration RAID
Bonjour
Je ne vois rien d'anormal. Que donne exactement cette commande
sudo mount -v /dev/md0 /mnt
Dernière modification par geole (Le 31/07/2019, à 18:08)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#9 Le 31/07/2019, à 20:38
- Jayme
Re : reconfiguration RAID
Réponse de mount
sudo mount -v /dev/md0 /mnt
[sudo] Mot de passe de jayme :
mount: /mnt : impossible de lire le superbloc à l’adresse /dev/md0.
A+
GJ
Hors ligne
#10 Le 31/07/2019, à 22:22
- geole
Re : reconfiguration RAID
Peux-tu dire ce que cette commande va donner comme résultat
sudo fsck -v /dev/md0
Ainsi que ces commandes ( https://forum.ubuntu-fr.org/viewtopic.php?id=2005259
sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
sudo mdadm -E /dev/sdb1
sudo mdadm -E /dev/sdc1
sudo mdadm -E /dev/sdd1
Dernière modification par geole (Le 31/07/2019, à 22:32)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#11 Le 31/07/2019, à 23:55
- Jayme
Re : reconfiguration RAID
Voici les réponses :
1/
sudo fsck -v /dev/md0
[sudo] Mot de passe de jayme :
fsck de util-linux 2.31.1
e2fsck 1.44.1 (24-Mar-2018)
fsck.ext2: Argument invalide lors de la tentative d'ouverture de /dev/md0
Le superbloc n'a pu être lu ou ne contient pas un système de fichiers
ext2/ext3/ext4 correct. Si le périphérique est valide et qu'il contient réellement
un système de fichiers ext2/ext3/ext4 (et non pas de type swap, ufs ou autre),
alors le superbloc est corrompu, et vous pourriez tenter d'exécuter
e2fsck avec un autre superbloc :
e2fsck -b 8193 <périphérique>
ou
e2fsck -b 32768 <périphérique>
2/
sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
SIZE NAME FSTYPE LABEL MOUNTPOINT
42,8M loop0 squashfs /snap/gtk-common-themes/1313
149,9M loop1 squashfs /snap/gnome-3-28-1804/67
1008K loop2 squashfs /snap/gnome-logs/61
140,7M loop3 squashfs /snap/gnome-3-26-1604/90
140,7M loop4 squashfs /snap/gnome-3-26-1604/74
13sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
SIZE NAME FSTYPE LABEL MOUNTPOINT
42,8M loop0 squashfs /snap/gtk-common-themes/1313
149,9M loop1 squashfs /snap/gnome-3-28-1804/67
1008K loop2 squashfs /snap/gnome-logs/61
140,7M loop3 squashfs /snap/gnome-3-26-1604/90
140,7M loop4 squashfs /snap/gnome-3-26-1604/74
13M loop5 squashfs /snap/gnome-characters/139
34,6M loop6 squashfs /snap/gtk-common-themes/818
14,5M loop7 squashfs /snap/gnome-logs/45
2,3M loop8 squashfs /snap/gnome-calculator/260
91M loop9 squashfs /snap/core/6350
14,8M loop10 squashfs /snap/gnome-characters/296
54,4M loop11 squashfs /snap/core18/1066
3,7M loop12 squashfs /snap/gnome-system-monitor/57
3,7M loop13 squashfs /snap/gnome-system-monitor/100
88,5M loop14 squashfs /snap/core/7270
4M loop15 squashfs /snap/gnome-calculator/406
232,9G sda
232,9G └─sda1 ext4 /
1,8T sdb
1,8T └─sdb1 linux_raid_member SRV1:0
1,8T sdc
1,8T └─sdc1 linux_raid_member SRV1:0
1,8T sdd
1,8T └─sdd1 linux_raid_member SRV1:0
931,5G sde
931,5G └─sde1 ext4 PASSW /media/jayme/PASSW
1024M sr0 M loop5 squashfs /snap/gnome-characters/139
34,6M loop6 squashfs /snap/gtk-common-themes/818
14,5M loop7 squashfs /snap/gnome-logs/45
2,3M loop8 squashfs /snap/gnome-calculator/260
91M loop9 squashfs /snap/core/6350
14,8M loop10 squashfs /snap/gnome-characters/296
54,4M loop11 squashfs /snap/core18/1066
3,7M loop12 squashfs /snap/gnome-system-monitor/57
3,7M loop13 squashfs /snap/gnome-system-monitor/100
88,5M loop14 squashfs /snap/core/7270
4M loop15 squashfs /snap/gnome-calculator/406
232,9G sda
232,9G └─sda1 ext4 /
1,8T sdb
1,8T └─sdb1 linux_raid_member SRV1:0
1,8T sdc
1,8T └─sdc1 linux_raid_member SRV1:0
1,8T sdd
1,8T └─sdd1 linux_raid_member SRV1:0
931,5G sde
931,5G └─sde1 ext4 PASSW /media/jayme/PASSW
1024M sr0
3/
sudo mdadm -E /dev/sdb1
/dev/sdb1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 5857f835:0c20b697:cf84fa0b:1720716d
Name : SRV1:0 (local to host SRV1)
Creation Time : Sun Jul 28 10:25:11 2019
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 3906762928 (1862.89 GiB 2000.26 GB)
Array Size : 3906762752 (3725.78 GiB 4000.53 GB)
Used Dev Size : 3906762752 (1862.89 GiB 2000.26 GB)
Data Offset : 264192 sectors
Super Offset : 8 sectors
Unused Space : before=264112 sectors, after=176 sectors
State : clean
Device UUID : 18b37450:dc309656:1bb91c45:d42029d0
Internal Bitmap : 8 sectors from superblock
Update Time : Sun Jul 28 11:00:11 2019
Bad Block Log : 512 entries available at offset 16 sectors
Checksum : 6a306b23 - correct
Events : 522
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 0
Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)
4/
sudo mdadm -E /dev/sdc1
/dev/sdc1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 5857f835:0c20b697:cf84fa0b:1720716d
Name : SRV1:0 (local to host SRV1)
Creation Time : Sun Jul 28 10:25:11 2019
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 3906762928 (1862.89 GiB 2000.26 GB)
Array Size : 3906762752 (3725.78 GiB 4000.53 GB)
Used Dev Size : 3906762752 (1862.89 GiB 2000.26 GB)
Data Offset : 264192 sectors
Super Offset : 8 sectors
Unused Space : before=264112 sectors, after=176 sectors
State : clean
Device UUID : 332fb6af:e2b49dd7:8c65ef84:53e0c383
Internal Bitmap : 8 sectors from superblock
Update Time : Sun Jul 28 11:01:35 2019
Bad Block Log : 512 entries available at offset 16 sectors
Checksum : 3de4e03f - correct
Events : 2752
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 1
Array State : .A. ('A' == active, '.' == missing, 'R' == replacing)
5/
sudo mdadm -E /dev/sdd1
/dev/sdd1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x9
Array UUID : 5857f835:0c20b697:cf84fa0b:1720716d
Name : SRV1:0 (local to host SRV1)
Creation Time : Sun Jul 28 10:25:11 2019
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 3906762928 (1862.89 GiB 2000.26 GB)
Array Size : 3906762752 (3725.78 GiB 4000.53 GB)
Used Dev Size : 3906762752 (1862.89 GiB 2000.26 GB)
Data Offset : 264192 sectors
Super Offset : 8 sectors
Unused Space : before=264112 sectors, after=176 sectors
State : clean
Device UUID : 17b96106:854bb625:f30ae866:7c1856ac
Internal Bitmap : 8 sectors from superblock
Update Time : Sun Jul 28 11:01:35 2019
Bad Block Log : 512 entries available at offset 16 sectors - bad blocks present.
Checksum : ed33de5e - correct
Events : 2752
Layout : left-symmetric
Chunk Size : 512K
Device Role : spare
Array State : .A. ('A' == active, '.' == missing, 'R' == replacing)
Il n'y a pas quelque chose qui cloche? la date de création devrait être celle de la 1ere création du AID c'est à dire aux environs de 2017?
Merci
GJ
Dernière modification par Jayme (Le 31/07/2019, à 23:57)
Hors ligne
#12 Le 01/08/2019, à 10:13
- geole
Re : reconfiguration RAID
Bonjour
Cela me semble logique que la date ait changé puisque tu as refait une création du raids
Cependant la création a été faite sans mettre l'option --assume-clean Donc les données ont été préservées.
A) Retentes cette commande avec un super bloc de secours.
sudo e2fsck -b 32768 /dev/md0
B) Si toujours la même erreur, on va essayer de trouver la liste théorique des super-blocs présents
Attention cette commande simule un formatage. Mais si tu frappes mal l'option, par exemple en la mettant en majuscule, elle risque de faire un vrai formatage
-n Causes mke2fs to not actually create a filesystem, but display
what it would do if it were to create a filesystem. This can be
used to determine the location of the backup superblocks for a
particular filesystem, so long as the mke2fs parameters that
were passed when the filesystem was originally created are used
again. (With the -n option added, of course!)
sudo mke2fs -n /dev/md0
Correctif
sudo mkfs.ext4 -n /dev/md0
C) Essayer de nouveau en prenant quelques numéros de super blocs au milieu de la liste
NOTA; J'ai vu cette information pour la partition SDD1
Bad Block Log : 512 entries available at offset 16 sectors - bad blocks present.
A mon avis, cela ne devrait pas empêcher le montage...
En revanche, je viens de voir
SDB1 Events : 522
SDC1 Events : 2752
SDD1 Events : 2752
Cette grande différance d'événements me surprend et est probablement une piste pour la difficulté de remise en route
Il y a aussi cela
SDB1 Device Role : Active device 0
Array State : AAA ('A' == active, '.' == missing, 'R' == replacing) Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)
SDC1 Device Role : Active device 1
Array State : .A. ('A' == active, '.' == missing, 'R' == replacing)
SDD1 Device Role : spare
Array State : .A. ('A' == active, '.' == missing, 'R' == replacing)
Je ne sais pas très bien interpréter mais à mon avis
La création initiale du RAIDS était faite avec 2 disques plus 1 en secours
Il y a eu un incident , probablement mal signalé, et la partition SDB1 a cessé de fonctionner.
Du coup, il est probable que ta commande de reconstruction du RAIDS ne soit pas bonne.
La commande de construction initiale devait probablement être
sudo mdadm --create /dev/md0 --level=5 --assume-clean --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1 --spare-devices=1 /dev/sdd1
Cette commande te rappelle-t-elle quelque chose ?
Je ne sais pas trop quoi réellement proposer.
1) Reconstruire le raids avec cette commande
sudo mdadm --create /dev/md0 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1 --spare-devices=1 /dev/sdd1
2) Dire que la partition SDB1 est HS avec cette commande
mdadm --manage /dev/md0 --set-faulty /dev/sdb1
3) Tenter de remonter le raids avec cette commande
sudo mount -v /dev/md0 /mnt
Cependant, Si tu peux attendre un autre avis avant de faire ces trois commandes qui peuvent faire des bétises, cela serait préférable.
Dernière modification par geole (Le 01/08/2019, à 19:31)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#13 Le 01/08/2019, à 11:51
- Jayme
Re : reconfiguration RAID
OK,
Tu me dis que je n'ai pas mis l'option --assume-clean, heureusement car je ne veux pas perdre mes données d'autant plus que je n'ai pas de sauvegardes. Je voulais ajouter qu'après le choc la tour a continué à tourner normalement j'ai travaillé pendant une semaine puis les accès disque sont devenus de plus en plus lents, ça aurait du me donner la puce à l'oreille pour que je fasse une sauvegarde, mais 4To ce n'est pas évident.
Le e2fsck -b 32768 /dev/md0 n'a pas marché (superblock n'a pu être lu
Le mke2fs -n /dev/md0 aussi n'a pas marché : La taille du périphérique est zéro, taille de partition invalide
Le problème c'est quoi que je fasse avec mdadm il me réponds que /dev/sdb1 est busy et si je le débranchais?
A+
GJ
Hors ligne
#14 Le 01/08/2019, à 12:02
- geole
Re : reconfiguration RAID
En fait tu confirmes incidemment ce que je pense..
"j'ai travaillé pendant une semaine puis les accès disque sont devenus de plus en plus lents"
Il devait probablement être en train de recopier SDB1 sur SDD1
Ne débranche pas mais dit que la partition est indisponible
mdadm --manage /dev/md0 --set-faulty /dev/sdb1
et regarde ce que la commande de montage du raids va donner.
Je me suis probablement trompé dans la commande de simulation
Rectification!!!!!!
sudo mkfs.ext4 -n /dev/md0
Dernière modification par geole (Le 01/08/2019, à 19:46)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#15 Le 01/08/2019, à 19:09
- jamesbad000
Re : reconfiguration RAID
Bonsoir,
mdadm --create est à utiliser en désespoir de cause.
Un raid existant s'assemble avec mdadm --assemble
Je me suis probablement trompé dans la commande de simulation
sudo mkfs.ext4 /dev/md0
Ceci n'est pas une simulation, ne pas faire cette commande !
De toute façon, autant que je puisse en juger dans lsblk et mdadm --detail, la grappe n'est pas active...
J'essaye de comprendre la situation, et je reviens quand j'ai un peu de temps
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#16 Le 01/08/2019, à 20:44
- jamesbad000
Re : reconfiguration RAID
Hum sur les 2 disques qui semblent synchronisés un est en spare. Je sens que ça ne va pas être simple
Mais donnes déjà le retour de
sudo mdadm --stop /dev/md0
sudo mdadm -v --assemble /dev/md0 /dev/sd[bcd]1
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#17 Le 02/08/2019, à 09:00
- Jayme
Re : reconfiguration RAID
Retour des commades : il y a bien un en spare:
sudo mdadm --stop /dev/md0
[sudo] Mot de passe de jayme :
mdadm: stopped /dev/md0
jayme@SRV1:~$ sudo mdadm -v --assemble /dev/md0 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: looking for devices for /dev/md0
mdadm: /dev/sdb1 is identified as a member of /dev/md0, slot 0.
mdadm: /dev/sdc1 is identified as a member of /dev/md0, slot 1.
mdadm: /dev/sdd1 is identified as a member of /dev/md0, slot -1.
mdadm: added /dev/sdb1 to /dev/md0 as 0 (possibly out of date)
mdadm: no uptodate device for slot 2 of /dev/md0
mdadm: added /dev/sdd1 to /dev/md0 as -1
mdadm: added /dev/sdc1 to /dev/md0 as 1
mdadm: /dev/md0 assembled from 1 drive and 1 spare - not enough to start the array.
A+
GJ
Hors ligne
#18 Le 02/08/2019, à 18:44
- jamesbad000
Re : reconfiguration RAID
Quand même pour avoir un spare sur un raid 5 à 3 disques il a du falloir forcer un peu les choses. Parce que sur une grappe en fonctionnement le spare vient automatiquement prendre la place d'un disque manquant...
Ok tentons de forcer un peu les choses, sans prendre de risque.
sudo mdadm --stop /dev/md0
sudo mdadm -v --assemble --readonly --force /dev/md0 /dev/sd[bcd]1
ps tu peux laisser sd[bcd]1 tel quel, ça fonctionne.
edit :
sudo mdadm --create /dev/md0 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1 ... mdadm: partition table exists on /dev/sdb1 but will be lost ... mdadm: partition table exists on /dev/sdc1 but will be lost or
Plutôt inhabituel de trouver une table de partition dans une partition. Et la c'est sur 2 partitions...
Dernière modification par jamesbad000 (Le 02/08/2019, à 19:06)
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#19 Le 02/08/2019, à 19:41
- Jayme
Re : reconfiguration RAID
Salut,
Vraiment je me suis pas aperçu, je trouvai que les accès disques étaient ralenti et puis ça s'est dégradé rapidement. c'est lorsque j'ai rallumé le PC que le disque système a posé problème. J(ai booté avec la clés USB de UBUNTU, j'ai réparé le disque système mais il y avait beaucoup trop d'erreurs pour démarrer correctement.
J'ai effectué les commandes je pense qu'on est sur la bonne voie :
sudo mdadm --stop /dev/md0
[sudo] Mot de passe de jayme :
mdadm: stopped /dev/md0
jayme@SRV1:/etc$ sudo mdadm -v --assemble -readonly --force /dev/md0 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: option -r not valid in assemble mode
jayme@SRV1:/etc$ sudo mdadm -v --assemble --readonly --force /dev/md0 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: looking for devices for /dev/md0
mdadm: /dev/sdb1 is identified as a member of /dev/md0, slot 0.
mdadm: /dev/sdc1 is identified as a member of /dev/md0, slot 1.
mdadm: /dev/sdd1 is identified as a member of /dev/md0, slot -1.
mdadm: forcing event count in /dev/sdb1(0) from 522 upto 2752
mdadm: clearing FAULTY flag for device 2 in /dev/md0 for /dev/sdd1
mdadm: Marking array /dev/md0 as 'clean'
mdadm: added /dev/sdc1 to /dev/md0 as 1
mdadm: no uptodate device for slot 2 of /dev/md0
mdadm: added /dev/sdd1 to /dev/md0 as -1
mdadm: added /dev/sdb1 to /dev/md0 as 0
mdadm: /dev/md0 has been started with 2 drives (out of 3) and 1 spare.
Je pense qu'il y a encore des commandes a envoyer puis à changer ou ajouter un disque?
A+
GJ
Dernière modification par Jayme (Le 02/08/2019, à 19:45)
Hors ligne
#20 Le 02/08/2019, à 20:01
- jamesbad000
Re : reconfiguration RAID
Le problème c'est qu'on a forcé l'usage d'un disque désynchronisé. Ce qui peut donner un résultat tout à fait impropre à la consommation...
Pour l'instant la grappe est activé en read-only et on va pouvoir regarder si on trouve quelque chose d'exploitable dedans.
sudo lsblk -o size,name,fstype,label,mountpoint
sudo fsck -fn /dev/md0
sudo mount -o ro /dev/md0 /mnt
ls /mnt
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#21 Le 02/08/2019, à 21:43
- Jayme
Re : reconfiguration RAID
Salut, le fsck ne marche pas
lsblk -o size,name,fstype,label,mountpoint
SIZE NAME FSTYPE LABEL MOUNTPOINT
149,9M loop0 squashfs /snap/gnome-3-28-1804/67
42,8M loop1 squashfs /snap/gtk-common-themes/1313
140,7M loop2 squashfs /snap/gnome-3-26-1604/90
1008K loop3 squashfs /snap/gnome-logs/61
54,4M loop4 squashfs /snap/core18/1066
34,6M loop5 squashfs /snap/gtk-common-themes/818
14,5M loop6 squashfs /snap/gnome-logs/45
3,7M loop7 squashfs /snap/gnome-system-monitor/57
91M loop8 squashfs /snap/core/6350
3,7M loop9 squashfs /snap/gnome-system-monitor/100
14,8M loop10 squashfs /snap/gnome-characters/296
88,5M loop11 squashfs /snap/core/7270
13M loop12 squashfs /snap/gnome-characters/139
2,3M loop13 squashfs /snap/gnome-calculator/260
4M loop14 squashfs /snap/gnome-calculator/406
140,7M loop15 squashfs /snap/gnome-3-26-1604/74
232,9G sda
232,9G └─sda1 ext4 /
1,8T sdb
1,8T └─sdb1 linux_raid_member SRV1:0
3,7T └─md0
1,8T sdc
1,8T └─sdc1 linux_raid_member SRV1:0
3,7T └─md0
1,8T sdd
1,8T └─sdd1 linux_raid_member SRV1:0
3,7T └─md0
931,5G sde
931,5G └─sde1 ext4 PASSW /media/jayme/PASSW
1024M sr0
sudo fsck -fn /dev/md0
fsck de util-linux 2.31.1
e2fsck 1.44.1 (24-Mar-2018)
ext2fs_open2: Numéro magique invalide dans le super-bloc
fsck.ext2 : Superbloc invalide, tentons d'utiliser les blocs de sauvetage...
fsck.ext2: Numéro magique invalide dans le super-bloc lors de la tentative d'ouverture de /dev/md0
Le superbloc n'a pu être lu ou ne contient pas un système de fichiers
ext2/ext3/ext4 correct. Si le périphérique est valide et qu'il contient réellement
un système de fichiers ext2/ext3/ext4 (et non pas de type swap, ufs ou autre),
alors le superbloc est corrompu, et vous pourriez tenter d'exécuter
e2fsck avec un autre superbloc :
e2fsck -b 8193 <périphérique>
ou
e2fsck -b 32768 <périphérique>
sudo mount -o ro /dev/md0 /mnt
[sudo] Mot de passe de jayme :
mount: /mnt : wrong fs type, bad option, bad superblock on /dev/md0, missing codepage or helper program, or other error.
et e2fsck ne peut pas car il faut être root et je ne sais pas le faire.
A+
GJ
Dernière modification par Jayme (Le 02/08/2019, à 22:07)
Hors ligne
#22 Le 02/08/2019, à 21:47
- Jayme
Re : reconfiguration RAID
Je viens d'apprendre a me mettre en root
mais le disque est en accès read only, c'est possible de le changer?
A+
GJ
Hors ligne
#23 Le 02/08/2019, à 21:56
- jamesbad000
Re : reconfiguration RAID
Je l'ai activé en read only exprès pour pouvoir vérifier, sans faire d'autres dégât irréversible , que l'on a une grappe exploitable. Et se laisser la possibilité d'essayer autre chose dans le cas contraire.
Je viens d'apprendre a me mettre en root
D'abord c'est parfaitement inutile puisque sudo te donne un accès root.
Ensuite j'aimerais bien que tu m’envoies la/les commandes exactes que tu as passées et ce qu'elles ont répondues, histoire que je comprenne ou on en est. Parce que là je ne vois pas...
Dernière modification par jamesbad000 (Le 02/08/2019, à 22:00)
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#24 Le 02/08/2019, à 22:10
- Jayme
Re : reconfiguration RAID
Voila :
sudo lsblk -o size,name,fstype,label,mountpoint
SIZE NAME FSTYPE LABEL MOUNTPOINT
149,9M loop0 squashfs /snap/gnome-3-28-1804/67
42,8M loop1 squashfs /snap/gtk-common-themes/1313
140,7M loop2 squashfs /snap/gnome-3-26-1604/90
1008K loop3 squashfs /snap/gnome-logs/61
54,4M loop4 squashfs /snap/core18/1066
34,6M loop5 squashfs /snap/gtk-common-themes/818
14,5M loop6 squashfs /snap/gnome-logs/45
3,7M loop7 squashfs /snap/gnome-system-monitor/57
91M loop8 squashfs /snap/core/6350
3,7M loop9 squashfs /snap/gnome-system-monitor/100
14,8M loop10 squashfs /snap/gnome-characters/296
88,5M loop11 squashfs /snap/core/7270
13M loop12 squashfs /snap/gnome-characters/139
2,3M loop13 squashfs /snap/gnome-calculator/260
4M loop14 squashfs /snap/gnome-calculator/406
140,7M loop15 squashfs /snap/gnome-3-26-1604/74
232,9G sda
232,9G └─sda1 ext4 /
1,8T sdb
1,8T └─sdb1 linux_raid_member SRV1:0
3,7T └─md0
1,8T sdc
1,8T └─sdc1 linux_raid_member SRV1:0
3,7T └─md0
1,8T sdd
1,8T └─sdd1 linux_raid_member SRV1:0
3,7T └─md0
931,5G sde
931,5G └─sde1 ext4 PASSW /media/jayme/PASSW
1024M sr0
jayme@SRV1:~$ sudo fsck -fn /dev/md0
fsck de util-linux 2.31.1
e2fsck 1.44.1 (24-Mar-2018)
ext2fs_open2: Numéro magique invalide dans le super-bloc
fsck.ext2 : Superbloc invalide, tentons d'utiliser les blocs de sauvetage...
fsck.ext2: Numéro magique invalide dans le super-bloc lors de la tentative d'ouverture de /dev/md0
Le superbloc n'a pu être lu ou ne contient pas un système de fichiers
ext2/ext3/ext4 correct. Si le périphérique est valide et qu'il contient réellement
un système de fichiers ext2/ext3/ext4 (et non pas de type swap, ufs ou autre),
alors le superbloc est corrompu, et vous pourriez tenter d'exécuter
e2fsck avec un autre superbloc :
e2fsck -b 8193 <périphérique>
ou
e2fsck -b 32768 <périphérique>
jayme@SRV1:~$ sudo mount -o ro /dev/md0 /mnt
mount: /mnt : wrong fs type, bad option, bad superblock on /dev/md0, missing codepage or helper program, or other error.
A+
GJ
Hors ligne
#25 Le 02/08/2019, à 22:30
- jamesbad000
Re : reconfiguration RAID
Ok en fin de compte tu n'as rien fait de plus que les commandes que j'avais indiqué.
Bon. A ce stade il faut faire une scan de la partition avec testdisk, pour voir si on retrouve les traces d'un système de fichier.
Pour installer testdisk :
sudo apt-get install testdisk
Ensuite lancer :
sudo testdisk /log /dev/md0
sur le 1er écran choisir
>[None ] Non partitioned media
aller dans
>[ Options ] Modify options
puis modifier l'option d'alignement à No
>Align partition: No
[ Ok ]
Une fois validée l'option d'alignement. Le menu est réaffiché. Lancer l'analyse
>[ Analyse ]
Ensuite valider les écrans par entrée, jusqu'à ce qu'il propose, en bas d'écran :
[Deeper search]
Valider à nouveau et laisser tourner. Ca va probablement durer plusieurs heures...
Lorsque c'est terminé, envoyer une copie de l'écran. et laisser en l'état.
Dernière modification par jamesbad000 (Le 02/08/2019, à 22:46)
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne