Contenu | Rechercher | Menus

Annonce

La nouvelle clé USB Ubuntu-fr est en prévente
Rendez-vous sur la boutique En Vente Libre

Si vous avez des soucis pour rester connecté, déconnectez-vous puis reconnectez-vous depuis ce lien en cochant la case
Me connecter automatiquement lors de mes prochaines visites.

À propos de l'équipe du forum.

#1 Le 25/07/2019, à 18:47

Jayme

reconfiguration RAID

Bonjour,
Je n'arrive pas à m'en sortir!!
J'ai un serveur avec un disque système /dev/sda de 500Go et 3 disques de 2To identiques configurés en RAID.
J'ai eu quelques soucis avec mon disque système, je l'ai changé et réinstallé ubuntu avec la cles USB de votre groupe.
Tout marche mais je n'arrive plus a reconfigurer le RAID.
Je vois bien les disques, j'essaie de recréer la grappe avec: sudo mdadm --create /dev/md0 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1

j'ai comme réponse
mdadm: cannot open /dev/sdb1: Device or resource busy
j'ai changé l'ordre pour voir : sudo mdadm --create /dev/md0 --level=5 --raid-devices=3 /dev/sdd1 /dev/sdc1 /dev/sdb1
la réponse est : mdadm: super1.x cannot open /dev/sdc1: Device or resource busy
mdadm: /dev/sdc1 is not suitable for this array.
mdadm: super1.x cannot open /dev/sdb1: Device or resource busy
mdadm: /dev/sdb1 is not suitable for this array.
mdadm: create aborted

Avant le mauvais fonctionnement de mon disque système la grappe (/dev/md0) fonctionnait parfaitement bien.
je pense avoir sauté des étapes, de plus je ne voudrai pas perdre toutes les données qui sont sur les disques.
Pouvez-vous m'aider ou me renvoyer vers de la doc.

Merci

Hors ligne

#2 Le 26/07/2019, à 11:49

geole

Re : reconfiguration RAID

Bonjour
Il est possible que les partitions que tu veux mettre en raids soient déjà montées au démarrrage grace à fstab
Peux-tu donner le retour de cette commande

cat /etc/fstab

ou que ton O.S. ait décidé de les monter sans ton avis. Peux-tu faire ces commandes

sudo umount -v   /dev/sdb1
sudo umount -v   /dev/sdc1
sudo umount -v   /dev/sdd1

Si au moins, un démontage a eu lieu, tu peux tenter ta commande d'assemblage. De préférence dans le bon ordre.
Si aucune commande de démontage n'a lieu, je n'ai pas d'autre suggestion à te faire.

Dernière modification par geole (Le 26/07/2019, à 11:51)

En ligne

#3 Le 28/07/2019, à 00:48

Jayme

Re : reconfiguration RAID

Bonsoir, quelques précisions  : Mon problème disque es arrivé petite à petit depuis que j'ai fait tombé ma tour, le disque système sda1 s'est dégradé.
J'ai booté sur la cles USB j'ai fait un fsck de sda1 j'ai réussi  à retrouvé pas mal de fichiers système que j'ai copié sur un disque externe j'ai pu lire le fichier raidtab :
more raidtab
raiddev    / dev / md0
        RAID niveau 5
        nr-RAID-disques 7
        NR-rechange-disques 0
        persistant superblock 1
        parité algorithme symétrique gauche-
        morceau de taille 32
        raid-disk 0
        device / dev / sdb1
        raid-disk 1
        device / dev / sdc1
        raid-disk 2
        device / dev / sdd1
puis le fichier fstab :
cat fstab
# /etc/fstab: static file system information.
#
# Use 'blkid' to print the universally unique identifier for a
# device; this may be used with UUID= as a more robust way to name devices
# that works even if disks are added and removed. See fstab(5).
#
# <file system> <mount point>   <type>  <options>       <dump>  <pass>
# / was on /dev/sda1 during installation
UUID=cb74db85-40cb-4374-bc5b-8297b3d3e3d3 /               ext4    errors=remount-ro 0       1
# swap was on /dev/sda5 during installation
UUID=752d9b51-f83f-47f4-9bf1-70c5f3a72438 none            swap    sw              0       0
/dev/md0    /home    ext4    defaults    0    1

Je devrait m'en sortir, sauf si les disques RAID sont foutus? Quelles étapes maintenant pour récupérér ces disques? dois je utiliser mdadm? ou simplement copier les fichiers raidtab et fstab dans le dossier /etc du nouveau système que je viens d'installer. avec un disque sda1 tout neuf.
Je suis en train de potasser la doc ubuntu sur le RAID en attendant quelques précisions de votre part.
Merci de continuer à m'aider.

Dernière modification par Jayme (Le 28/07/2019, à 00:51)

Hors ligne

#4 Le 28/07/2019, à 02:29

cqfd93

Re : reconfiguration RAID

Modération

Bonjour,

Pour ajouter toi-même les balises code à tes messages #1 et #3 :

  • Cliquer sur le lien « Modifier » en bas à droite du message

  • Sélectionner le texte

  • Cliquer sur le <> de l'éditeur de message
    1471986854.png


cqfd93

En ligne

#5 Le 28/07/2019, à 10:49

Jayme

Re : reconfiguration RAID

Bonjour suite de mes essais:
j'ai testé mes disques avec fdisk -l, les disque sdb1 et sdc1 sont ok pour sdd1 :le message : La table de partitions GPT de sauvegarde est corrompue, mais la primaire semble fonctionnelle, elle sera donc utilisée.
Je n'en tiens pas compte et je reconstruit ma grappe en tappant la commande

sudo mdadm --create /dev/md0 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1

j'ai les messages suivants

mdadm: /dev/sdb1 appears to be part of a raid array:
       level=raid5 devices=3 ctime=Tue Jun  9 19:39:26 2015
mdadm: partition table exists on /dev/sdb1 but will be lost or
       meaningless after creating array
mdadm: /dev/sdc1 appears to be part of a raid array:
       level=raid5 devices=3 ctime=Tue Jun  9 19:39:26 2015
mdadm: partition table exists on /dev/sdc1 but will be lost or
       meaningless after creating array
Continue creating array? o
Continue creating array? (y/n) y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.

/dev/sdd n'apparait pas, je n'en tiens pas compte j'essaie de monter /dev/md0 avec

sudo mount -av 

j'ai en retour /mnt/md0 ignoré je suis bloqué, peut etre qu'il faut réparer /dev/mdd mais avec quelle commande fsck?

Merci pour votre réponse.

Hors ligne

#6 Le 28/07/2019, à 11:37

geole

Re : reconfiguration RAID

Bonjour
Je ne vois pas trop pourquoi  SDD1 n'a pas été accroché 
Vu que la tour a eu un gros choc, il serait pas mal que tu donnes l'état physique de chacun de tes 4 disques
1) Installer l'application smartctl, voir chapitre 1 de https://doc.ubuntu-fr.org/smartmontools
2) donner les 4 retours de ces commandes

sudo smartctl    -s  on   -a  /dev/sda
sudo smartctl    -s  on   -a  /dev/sdb
sudo smartctl    -s  on   -a  /dev/sdc
sudo smartctl    -s  on   -a  /dev/sdd

On va regarder comment est  l'état du raids

sudo mdadm   --detail   /dev/md0

En ligne

#7 Le 31/07/2019, à 15:41

Jayme

Re : reconfiguration RAID

Re,
Pas pu donner une réponse rapidement, je me suis absenté quelques jours. Pas la peine de tester sda, il est tout neuf, c'est le disque avec un nouveau système installé à partir de la cles USB.
SDB

smartctl -s on -a /dev/sdb 
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.18.0-25-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Seagate Barracuda 7200.14 (AF)
Device Model:     ST2000DM001-1ER164
Serial Number:    W4Z0F8QW
LU WWN Device Id: 5 000c50 07c616dc1
Firmware Version: CC25
User Capacity:    2000398934016 bytes [2,00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    7200 rpm
Form Factor:      3.5 inches
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ACS-2, ACS-3 T13/2161-D revision 3b
SATA Version is:  SATA 3.1, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is:    Wed Jul 31 15:21:06 2019 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x82)	Offline data collection activity
					was completed without error.
					Auto Offline Data Collection: Enabled.
Self-test execution status:      (   0)	The previous self-test routine completed
					without error or no self-test has ever 
					been run.
Total time to complete Offline 
data collection: 		(   97) seconds.
Offline data collection
capabilities: 			 (0x7b) SMART execute Offline immediate.
					Auto Offline data collection on/off support.
					Suspend Offline collection upon new
					command.
					Offline surface scan supported.
					Self-test supported.
					Conveyance Self-test supported.sudo smartctl -s on -a /dev/sdb
[sudo] Mot de passe de jayme : 
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.18.0-25-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Seagate Barracuda 7200.14 (AF)
Device Model:     ST2000DM001-1ER164
Serial Number:    W4Z0F8QW
LU WWN Device Id: 5 000c50 07c616dc1
Firmware Version: CC25
User Capacity:    2000398934016 bytes [2,00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    7200 rpm
Form Factor:      3.5 inches
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ACS-2, ACS-3 T13/2161-D revision 3b
SATA Version is:  SATA 3.1, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is:    Wed Jul 31 15:21:06 2019 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x82)	Offline data collection activity
					was completed without error.
					Auto Offline Data Collection: Enabled.
Self-test execution status:      (   0)	The previous self-test routine completed
					without error or no self-test has ever 
					been run.
Total time to complete Offline 
data collection: 		(   97) seconds.
Offline data collection
capabilities: 			 (0x7b) SMART execute Offline immediate.
					Auto Offline data collection on/off support.
					Suspend Offline collection upon new
					command.
					Offline surface scan supported.
					Self-test supported.
					Conveyance Self-test supported.
					Selective Self-test supported.
SMART capabilities:            (0x0003)	Saves SMART data before entering
					power-saving mode.
					Supports SMART auto save timer.
Error logging capability:        (0x01)	Error logging supported.
					General Purpose Logging supported.
Short self-test routine 
recommended polling time: 	 (   1) minutes.
Extended self-test routine
recommended polling time: 	 ( 213) minutes.
Conveyance self-test routine
recommended polling time: 	 (   2) minutes.
SCT capabilities: 	       (0x1085)	SCT Status supported.

SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000f   115   099   006    Pre-fail  Always       -       90559456
  3 Spin_Up_Time            0x0003   097   096   000    Pre-fail  Always       -       0
  4 Start_Stop_Count        0x0032   100   100   020    Old_age   Always       -       140
  5 Reallocated_Sector_Ct   0x0033   100   100   010    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x000f   082   060   030    Pre-fail  Always       -       175342759
  9 Power_On_Hours          0x0032   061   061   000    Old_age   Always       -       34819
 10 Spin_Retry_Count        0x0013   100   100   097    Pre-fail  Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   020    Old_age   Always       -       140
183 Runtime_Bad_Block       0x0032   100   100   000    Old_age   Always       -       0
184 End-to-End_Error        0x0032   100   100   099    Old_age   Always       -       0
187 Reported_Uncorrect      0x0032   100   100   000    Old_age   Always       -       0
188 Command_Timeout         0x0032   100   100   000    Old_age   Always       -       0 0 0
189 High_Fly_Writes         0x003a   100   100   000    Old_age   Always       -       0
190 Airflow_Temperature_Cel 0x0022   061   051   045    Old_age   Always       -       39 (Min/Max 35/40)
191 G-Sense_Error_Rate      0x0032   100   100   000    Old_age   Always       -       0
192 Power-Off_Retract_Count 0x0032   100   100   000    Old_age   Always       -       57
193 Load_Cycle_Count        0x0032   100   100   000    Old_age   Always       -       1285
194 Temperature_Celsius     0x0022   039   049   000    Old_age   Always       -       39 (0 10 0 0 0)
197 Current_Pending_Sector  0x0012   100   100   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0010   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x003e   200   200   000    Old_age   Always       -       0
240 Head_Flying_Hours       0x0000   100   253   000    Old_age   Offline      -       34718h+53m+18.224s
241 Total_LBAs_Written      0x0000   100   253   000    Old_age   Offline      -       16919269660
242 Total_LBAs_Read         0x0000   100   253   000    Old_age   Offline      -       206488593537

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed without error       00%     34748         -

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

					Selective Self-test supported.
SMART capabilities:            (0x0003)	Saves SMART data before entering
					power-saving mode.
					Supports SMART auto save timer.
Error logging capability:        (0x01)	Error logging supported.
					General Purpose Logging supported.
Short self-test routine 
recommended polling time: 	 (   1) minutes.
Extended self-test routine
recommended polling time: 	 ( 213) minutes.
Conveyance self-test routine
recommended polling time: 	 (   2) minutes.
SCT capabilities: 	       (0x1085)	SCT Status supported.

SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000f   115   099   006    Pre-fail  Always       -       90559456
  3 Spin_Up_Time            0x0003   097   096   000    Pre-fail  Always       -       0
  4 Start_Stop_Count        0x0032   100   100   020    Old_age   Always       -       140
  5 Reallocated_Sector_Ct   0x0033   100   100   010    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x000f   082   060   030    Pre-fail  Always       -       175342759
  9 Power_On_Hours          0x0032   061   061   000    Old_age   Always       -       34819
 10 Spin_Retry_Count        0x0013   100   100   097    Pre-fail  Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   020    Old_age   Always       -       140
183 Runtime_Bad_Block       0x0032   100   100   000    Old_age   Always       -       0
184 End-to-End_Error        0x0032   100   100   099    Old_age   Always       -       0
187 Reported_Uncorrect      0x0032   100   100   000    Old_age   Always       -       0
188 Command_Timeout         0x0032   100   100   000    Old_age   Always       -       0 0 0
189 High_Fly_Writes         0x003a   100   100   000    Old_age   Always       -       0
190 Airflow_Temperature_Cel 0x0022   061   051   045    Old_age   Always       -       39 (Min/Max 35/40)
191 G-Sense_Error_Rate      0x0032   100   100   000    Old_age   Always       -       0
192 Power-Off_Retract_Count 0x0032   100   100   000    Old_age   Always       -       57
193 Load_Cycle_Count        0x0032   100   100   000    Old_age   Always       -       1285
194 Temperature_Celsius     0x0022   039   049   000    Old_age   Always       -       39 (0 10 0 0 0)
197 Current_Pending_Sector  0x0012   100   100   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0010   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x003e   200   200   000    Old_age   Always       -       0
240 Head_Flying_Hours       0x0000   100   253   000    Old_age   Offline      -       34718h+53m+18.224s
241 Total_LBAs_Written      0x0000   100   253   000    Old_age   Offline      -       16919269660
242 Total_LBAs_Read         0x0000   100   253   000    Old_age   Offline      -       206488593537

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed without error       00%     34748         -

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

SDC

smartctl -s on -a /dev/sdc
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.18.0-25-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Seagate Barracuda 7200.14 (AF)
Device Model:     ST2000DM001-1ER164
Serial Number:    Z4Z0TKAA
LU WWN Device Id: 5 000c50 07967087b
Firmware Version: CC25
User Capacity:    2000398934016 bytes [2,00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    7200 rpm
Form Factor:      3.5 inches
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ACS-2, ACS-3 T13/2161-D revision 3b
SATA Version is:  SATA 3.1, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is:    Wed Jul 31 15:27:19 2019 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x82)	Offline data collection activity
					was completed without error.
					Auto Offline Data Collection: Enabled.
Self-test execution status:      (   0)	The previous self-test routine completed
					without error or no self-test has ever 
					been run.
Total time to complete Offline 
data collection: 		(   80) seconds.
Offline data collection
capabilities: 			 (0x7b) SMART execute Offline immediate.
					Auto Offline data collection on/off support.
					Suspend Offline collection upon new
					command.
					Offline surface scan supported.
					Self-test supported.
					Conveyance Self-test supported.
					Selective Self-test supported.
SMART capabilities:            (0x0003)	Saves SMART data before entering
					power-saving mode.
					Supports SMART auto save timer.
Error logging capability:        (0x01)	Error logging supported.
					General Purpose Logging supported.
Short self-test routine 
recommended polling time: 	 (   1) minutes.
Extended self-test routine
recommended polling time: 	 ( 217) minutes.
Conveyance self-test routine
recommended polling time: 	 (   2) minutes.
SCT capabilities: 	       (0x1085)	SCT Status supported.

SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000f   118   099   006    Pre-fail  Always       -       184680976
  3 Spin_Up_Time            0x0003   097   096   000    Pre-fail  Always       -       0
  4 Start_Stop_Count        0x0032   100   100   020    Old_age   Always       -       147
  5 Reallocated_Sector_Ct   0x0033   100   100   010    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x000f   081   060   030    Pre-fail  Always       -       167156528
  9 Power_On_Hours          0x0032   061   061   000    Old_age   Always       -       34817
 10 Spin_Retry_Count        0x0013   100   100   097    Pre-fail  Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   020    Old_age   Always       -       137
183 Runtime_Bad_Block       0x0032   096   096   000    Old_age   Always       -       4
184 End-to-End_Error        0x0032   100   100   099    Old_age   Always       -       0
187 Reported_Uncorrect      0x0032   100   100   000    Old_age   Always       -       0
188 Command_Timeout         0x0032   100   100   000    Old_age   Always       -       0 0 0
189 High_Fly_Writes         0x003a   100   100   000    Old_age   Always       -       0
190 Airflow_Temperature_Cel 0x0022   061   052   045    Old_age   Always       -       39 (Min/Max 35/40)
191 G-Sense_Error_Rate      0x0032   100   100   000    Old_age   Always       -       0
192 Power-Off_Retract_Count 0x0032   100   100   000    Old_age   Always       -       56
193 Load_Cycle_Count        0x0032   100   100   000    Old_age   Always       -       1289
194 Temperature_Celsius     0x0022   039   048   000    Old_age   Always       -       39 (0 10 0 0 0)
197 Current_Pending_Sector  0x0012   100   100   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0010   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x003e   200   195   000    Old_age   Always       -       35
240 Head_Flying_Hours       0x0000   100   253   000    Old_age   Offline      -       34716h+40m+51.427s
241 Total_LBAs_Written      0x0000   100   253   000    Old_age   Offline      -       13336344021
242 Total_LBAs_Read         0x0000   100   253   000    Old_age   Offline      -       214185074179

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed without error       00%     34746         -

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

SDD

smartctl -s on -a /dev/sdd
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.18.0-25-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Seagate Barracuda 7200.14 (AF)
Device Model:     ST2000DM001-1ER164
Serial Number:    S4Z0EJFL
LU WWN Device Id: 5 000c50 075baa0b9
Firmware Version: CC25
User Capacity:    2000398934016 bytes [2,00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    7200 rpm
Form Factor:      3.5 inches
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ACS-2, ACS-3 T13/2161-D revision 3b
SATA Version is:  SATA 3.1, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is:    Wed Jul 31 15:28:08 2019 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x82)	Offline data collection activity
					was completed without error.
					Auto Offline Data Collection: Enabled.
Self-test execution status:      (   0)	The previous self-test routine completed
					without error or no self-test has ever 
					been run.
Total time to complete Offline 
data collection: 		(   89) seconds.
Offline data collection
capabilities: 			 (0x7b) SMART execute Offline immediate.
					Auto Offline data collection on/off support.
					Suspend Offline collection upon new
					command.
					Offline surface scan supported.
					Self-test supported.
					Conveyance Self-test supported.
					Selective Self-test supported.
SMART capabilities:            (0x0003)	Saves SMART data before entering
					power-saving mode.
					Supports SMART auto save timer.
Error logging capability:        (0x01)	Error logging supported.
					General Purpose Logging supported.
Short self-test routine 
recommended polling time: 	 (   1) minutes.
Extended self-test routine
recommended polling time: 	 ( 219) minutes.
Conveyance self-test routine
recommended polling time: 	 (   2) minutes.
SCT capabilities: 	       (0x1085)	SCT Status supported.

SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000f   117   099   006    Pre-fail  Always       -       147770944
  3 Spin_Up_Time            0x0003   097   096   000    Pre-fail  Always       -       0
  4 Start_Stop_Count        0x0032   100   100   020    Old_age   Always       -       140
  5 Reallocated_Sector_Ct   0x0033   100   100   010    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x000f   075   060   030    Pre-fail  Always       -       21649200110
  9 Power_On_Hours          0x0032   061   061   000    Old_age   Always       -       34817
 10 Spin_Retry_Count        0x0013   100   100   097    Pre-fail  Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   020    Old_age   Always       -       137
183 Runtime_Bad_Block       0x0032   100   100   000    Old_age   Always       -       0
184 End-to-End_Error        0x0032   100   100   099    Old_age   Always       -       0
187 Reported_Uncorrect      0x0032   100   100   000    Old_age   Always       -       0
188 Command_Timeout         0x0032   100   099   000    Old_age   Always       -       0 0 1
189 High_Fly_Writes         0x003a   098   098   000    Old_age   Always       -       2
190 Airflow_Temperature_Cel 0x0022   062   053   045    Old_age   Always       -       38 (Min/Max 34/40)
191 G-Sense_Error_Rate      0x0032   100   100   000    Old_age   Always       -       0
192 Power-Off_Retract_Count 0x0032   100   100   000    Old_age   Always       -       58
193 Load_Cycle_Count        0x0032   100   100   000    Old_age   Always       -       1284
194 Temperature_Celsius     0x0022   038   047   000    Old_age   Always       -       38 (0 10 0 0 0)
197 Current_Pending_Sector  0x0012   100   100   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0010   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x003e   200   200   000    Old_age   Always       -       0
240 Head_Flying_Hours       0x0000   100   253   000    Old_age   Offline      -       34716h+51m+47.332s
241 Total_LBAs_Written      0x0000   100   253   000    Old_age   Offline      -       21673499279
242 Total_LBAs_Read         0x0000   100   253   000    Old_age   Offline      -       223036968916

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed without error       00%     34747         -

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
sudo mdadm --detail /dev/md0
[sudo] Mot de passe de jayme : 
/dev/md0:
           Version : 1.2
        Raid Level : raid0
     Total Devices : 3
       Persistence : Superblock is persistent

             State : inactive
   Working Devices : 3

              Name : SRV1:0  (local to host SRV1)
              UUID : 5857f835:0c20b697:cf84fa0b:1720716d
            Events : 2752

    Number   Major   Minor   RaidDevice

       -       8       49        -        /dev/sdd1
       -       8       33        -        /dev/sdc1
       -       8       17        -        /dev/sdb1

Voilà ,toutes les sorties  demandées.
Merci pour ton temps passé à me dépanner
GJ

Hors ligne

#8 Le 31/07/2019, à 19:07

geole

Re : reconfiguration RAID

Bonjour
Je ne vois rien d'anormal. Que donne exactement cette commande

sudo mount -v /dev/md0   /mnt

Dernière modification par geole (Le 31/07/2019, à 19:08)

En ligne

#9 Le 31/07/2019, à 21:38

Jayme

Re : reconfiguration RAID

Réponse de mount

sudo mount -v /dev/md0 /mnt
[sudo] Mot de passe de jayme : 
mount: /mnt : impossible de lire le superbloc à l’adresse /dev/md0.

A+
GJ

Hors ligne

#10 Le 31/07/2019, à 23:22

geole

Re : reconfiguration RAID

Peux-tu dire ce que cette commande va donner comme résultat

sudo fsck -v   /dev/md0

Ainsi que ces commandes ( https://forum.ubuntu-fr.org/viewtopic.php?id=2005259

sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
sudo mdadm -E /dev/sdb1
sudo mdadm -E /dev/sdc1
sudo mdadm -E /dev/sdd1

Dernière modification par geole (Le 31/07/2019, à 23:32)

En ligne

#11 Le 01/08/2019, à 00:55

Jayme

Re : reconfiguration RAID

Voici les réponses :
1/

sudo fsck -v /dev/md0
[sudo] Mot de passe de jayme : 
fsck de util-linux 2.31.1
e2fsck 1.44.1 (24-Mar-2018)
fsck.ext2: Argument invalide lors de la tentative d'ouverture de /dev/md0

Le superbloc n'a pu être lu ou ne contient pas un système de fichiers
ext2/ext3/ext4 correct. Si le périphérique est valide et qu'il contient réellement
un système de fichiers ext2/ext3/ext4 (et non pas de type swap, ufs ou autre),
alors le superbloc est corrompu, et vous pourriez tenter d'exécuter
e2fsck avec un autre superbloc :
    e2fsck -b 8193 <périphérique>
 ou
    e2fsck -b 32768 <périphérique>

2/

sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
  SIZE NAME   FSTYPE            LABEL  MOUNTPOINT
 42,8M loop0  squashfs                 /snap/gtk-common-themes/1313
149,9M loop1  squashfs                 /snap/gnome-3-28-1804/67
 1008K loop2  squashfs                 /snap/gnome-logs/61
140,7M loop3  squashfs                 /snap/gnome-3-26-1604/90
140,7M loop4  squashfs                 /snap/gnome-3-26-1604/74
   13sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
  SIZE NAME   FSTYPE            LABEL  MOUNTPOINT
 42,8M loop0  squashfs                 /snap/gtk-common-themes/1313
149,9M loop1  squashfs                 /snap/gnome-3-28-1804/67
 1008K loop2  squashfs                 /snap/gnome-logs/61
140,7M loop3  squashfs                 /snap/gnome-3-26-1604/90
140,7M loop4  squashfs                 /snap/gnome-3-26-1604/74
   13M loop5  squashfs                 /snap/gnome-characters/139
 34,6M loop6  squashfs                 /snap/gtk-common-themes/818
 14,5M loop7  squashfs                 /snap/gnome-logs/45
  2,3M loop8  squashfs                 /snap/gnome-calculator/260
   91M loop9  squashfs                 /snap/core/6350
 14,8M loop10 squashfs                 /snap/gnome-characters/296
 54,4M loop11 squashfs                 /snap/core18/1066
  3,7M loop12 squashfs                 /snap/gnome-system-monitor/57
  3,7M loop13 squashfs                 /snap/gnome-system-monitor/100
 88,5M loop14 squashfs                 /snap/core/7270
    4M loop15 squashfs                 /snap/gnome-calculator/406
232,9G sda                             
232,9G └─sda1 ext4                     /
  1,8T sdb                             
  1,8T └─sdb1 linux_raid_member SRV1:0 
  1,8T sdc                             
  1,8T └─sdc1 linux_raid_member SRV1:0 
  1,8T sdd                             
  1,8T └─sdd1 linux_raid_member SRV1:0 
931,5G sde                             
931,5G └─sde1 ext4              PASSW  /media/jayme/PASSW
 1024M sr0 M loop5  squashfs                 /snap/gnome-characters/139
 34,6M loop6  squashfs                 /snap/gtk-common-themes/818
 14,5M loop7  squashfs                 /snap/gnome-logs/45
  2,3M loop8  squashfs                 /snap/gnome-calculator/260
   91M loop9  squashfs                 /snap/core/6350
 14,8M loop10 squashfs                 /snap/gnome-characters/296
 54,4M loop11 squashfs                 /snap/core18/1066
  3,7M loop12 squashfs                 /snap/gnome-system-monitor/57
  3,7M loop13 squashfs                 /snap/gnome-system-monitor/100
 88,5M loop14 squashfs                 /snap/core/7270
    4M loop15 squashfs                 /snap/gnome-calculator/406
232,9G sda                             
232,9G └─sda1 ext4                     /
  1,8T sdb                             
  1,8T └─sdb1 linux_raid_member SRV1:0 
  1,8T sdc                             
  1,8T └─sdc1 linux_raid_member SRV1:0 
  1,8T sdd                             
  1,8T └─sdd1 linux_raid_member SRV1:0 
931,5G sde                             
931,5G └─sde1 ext4              PASSW  /media/jayme/PASSW
 1024M sr0 

3/

sudo mdadm -E /dev/sdb1
/dev/sdb1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 5857f835:0c20b697:cf84fa0b:1720716d
           Name : SRV1:0  (local to host SRV1)
  Creation Time : Sun Jul 28 10:25:11 2019
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 3906762928 (1862.89 GiB 2000.26 GB)
     Array Size : 3906762752 (3725.78 GiB 4000.53 GB)
  Used Dev Size : 3906762752 (1862.89 GiB 2000.26 GB)
    Data Offset : 264192 sectors
   Super Offset : 8 sectors
   Unused Space : before=264112 sectors, after=176 sectors
          State : clean
    Device UUID : 18b37450:dc309656:1bb91c45:d42029d0

Internal Bitmap : 8 sectors from superblock
    Update Time : Sun Jul 28 11:00:11 2019
  Bad Block Log : 512 entries available at offset 16 sectors
       Checksum : 6a306b23 - correct
         Events : 522

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 0
   Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)

4/

sudo mdadm -E /dev/sdc1
/dev/sdc1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 5857f835:0c20b697:cf84fa0b:1720716d
           Name : SRV1:0  (local to host SRV1)
  Creation Time : Sun Jul 28 10:25:11 2019
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 3906762928 (1862.89 GiB 2000.26 GB)
     Array Size : 3906762752 (3725.78 GiB 4000.53 GB)
  Used Dev Size : 3906762752 (1862.89 GiB 2000.26 GB)
    Data Offset : 264192 sectors
   Super Offset : 8 sectors
   Unused Space : before=264112 sectors, after=176 sectors
          State : clean
    Device UUID : 332fb6af:e2b49dd7:8c65ef84:53e0c383

Internal Bitmap : 8 sectors from superblock
    Update Time : Sun Jul 28 11:01:35 2019
  Bad Block Log : 512 entries available at offset 16 sectors
       Checksum : 3de4e03f - correct
         Events : 2752

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 1
   Array State : .A. ('A' == active, '.' == missing, 'R' == replacing)

5/

sudo mdadm -E /dev/sdd1
/dev/sdd1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x9
     Array UUID : 5857f835:0c20b697:cf84fa0b:1720716d
           Name : SRV1:0  (local to host SRV1)
  Creation Time : Sun Jul 28 10:25:11 2019
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 3906762928 (1862.89 GiB 2000.26 GB)
     Array Size : 3906762752 (3725.78 GiB 4000.53 GB)
  Used Dev Size : 3906762752 (1862.89 GiB 2000.26 GB)
    Data Offset : 264192 sectors
   Super Offset : 8 sectors
   Unused Space : before=264112 sectors, after=176 sectors
          State : clean
    Device UUID : 17b96106:854bb625:f30ae866:7c1856ac

Internal Bitmap : 8 sectors from superblock
    Update Time : Sun Jul 28 11:01:35 2019
  Bad Block Log : 512 entries available at offset 16 sectors - bad blocks present.
       Checksum : ed33de5e - correct
         Events : 2752

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : spare
   Array State : .A. ('A' == active, '.' == missing, 'R' == replacing)

Il n'y a pas quelque chose qui cloche? la date de création devrait être celle de la 1ere création du AID c'est à dire aux environs de 2017?
Merci
GJ

Dernière modification par Jayme (Le 01/08/2019, à 00:57)

Hors ligne

#12 Le 01/08/2019, à 11:13

geole

Re : reconfiguration RAID

Bonjour
Cela me semble logique que la date ait changé puisque tu as refait une création du raids
Cependant la création a été faite sans mettre l'option --assume-clean  Donc les données ont été préservées.

A)   Retentes cette commande    avec un super bloc  de secours.

 sudo    e2fsck   -b    32768    /dev/md0

B) Si toujours la même erreur, on va essayer de trouver la liste théorique des super-blocs présents
Attention cette commande simule  un formatage.   Mais si  tu frappes mal l'option, par exemple en la mettant en majuscule, elle risque de faire un vrai formatage
      -n     Causes  mke2fs  to not actually create a filesystem, but display
              what it would do if it were to create a filesystem.  This can be
              used  to  determine the location of the backup superblocks for a
              particular filesystem, so long as  the  mke2fs  parameters  that
              were  passed when the filesystem was originally created are used
              again.  (With the -n option added, of course!)

sudo   mke2fs      -n    /dev/md0
Correctif

sudo mkfs.ext4  -n   /dev/md0 

C)  Essayer de nouveau en prenant quelques  numéros de super blocs au milieu de la liste


NOTA;   J'ai vu cette information pour la partition SDD1
  Bad Block Log : 512 entries available at offset 16 sectors - bad blocks present.
A mon avis, cela ne devrait pas empêcher le montage...


En revanche, je viens de voir
SDB1        Events : 522
SDC1        Events : 2752
SDD1        Events : 2752

Cette grande différance d'événements me surprend et est probablement une piste pour la difficulté de remise en route

Il y a aussi cela
SDB1           Device Role : Active device 0
                   Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)  Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)

SDC1         Device Role : Active device 1
                  Array State : .A. ('A' == active, '.' == missing, 'R' == replacing)

SDD1          Device Role : spare
                   Array State : .A. ('A' == active, '.' == missing, 'R' == replacing)

Je ne sais pas très bien interpréter  mais à mon avis
    La création initiale du RAIDS était faite avec 2 disques plus 1 en secours
   Il y a eu un incident , probablement mal signalé, et la partition SDB1   a cessé de fonctionner.
   
Du coup, il est probable que ta commande de reconstruction  du RAIDS ne soit pas bonne.
  La commande de construction initiale devait probablement  être
   sudo mdadm --create /dev/md0 --level=5 --assume-clean --raid-devices=3   /dev/sdb1  /dev/sdc1   /dev/sdd1 --spare-devices=1 /dev/sdd1
   Cette commande  te rappelle-t-elle quelque chose ?

Je ne sais pas trop quoi réellement proposer.

1)  Reconstruire le raids    avec cette commande

sudo mdadm --create /dev/md0 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1  --spare-devices=1 /dev/sdd1

2) Dire que la partition SDB1 est HS avec cette commande

mdadm --manage /dev/md0 --set-faulty /dev/sdb1

3) Tenter de remonter le raids avec cette commande

sudo   mount -v     /dev/md0   /mnt

Cependant, Si tu peux attendre un autre avis avant de faire ces trois commandes qui peuvent faire des bétises, cela serait préférable.

Dernière modification par geole (Le 01/08/2019, à 20:31)

En ligne

#13 Le 01/08/2019, à 12:51

Jayme

Re : reconfiguration RAID

OK,

Tu me dis que je n'ai pas mis l'option --assume-clean, heureusement car je ne veux pas perdre mes données d'autant plus que je n'ai pas de sauvegardes. Je voulais ajouter qu'après le choc la tour a continué à tourner normalement j'ai travaillé pendant une semaine puis les accès disque sont devenus de plus en plus lents, ça aurait du me donner la puce à l'oreille pour que je fasse une sauvegarde, mais 4To ce n'est pas évident.

Le e2fsck   -b    32768    /dev/md0  n'a pas marché (superblock n'a pu être lu

Le mke2fs      -n    /dev/md0 aussi n'a pas marché : La taille du périphérique est zéro, taille de partition invalide

Le problème c'est quoi que je fasse avec mdadm il me réponds que /dev/sdb1 est busy et si je le débranchais?

A+
GJ

Hors ligne

#14 Le 01/08/2019, à 13:02

geole

Re : reconfiguration RAID

En  fait tu confirmes incidemment ce que je pense..
"j'ai travaillé pendant une semaine puis les accès disque sont devenus de plus en plus lents"
   Il devait probablement être en train de recopier SDB1 sur SDD1


Ne débranche pas mais dit que la partition est indisponible

mdadm --manage /dev/md0 --set-faulty /dev/sdb1

et regarde ce que la commande de montage du raids va donner.


Je me suis probablement trompé dans la commande de simulation
Rectification!!!!!!

sudo mkfs.ext4  -n    /dev/md0

Dernière modification par geole (Le 01/08/2019, à 20:46)

En ligne

#15 Le 01/08/2019, à 20:09

jamesbad000

Re : reconfiguration RAID

Bonsoir,

mdadm --create est à utiliser en désespoir de cause.
Un raid existant s'assemble avec mdadm --assemble

geole a écrit :

Je me suis probablement trompé dans la commande de simulation

sudo mkfs.ext4 /dev/md0

Ceci n'est pas une simulation, ne pas faire cette commande !
De toute façon, autant que je puisse en juger dans lsblk et mdadm --detail, la grappe n'est pas active...

J'essaye de comprendre la situation, et je reviens quand j'ai un peu de temps


L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne

#16 Le 01/08/2019, à 21:44

jamesbad000

Re : reconfiguration RAID

Hum sur les 2 disques qui semblent synchronisés un est en spare. Je sens que ça ne va pas être simple

Mais donnes déjà le retour de

sudo mdadm --stop /dev/md0
sudo mdadm -v --assemble /dev/md0 /dev/sd[bcd]1

L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne

#17 Le 02/08/2019, à 10:00

Jayme

Re : reconfiguration RAID

Retour des commades : il y a bien un en spare:

sudo mdadm --stop /dev/md0
[sudo] Mot de passe de jayme : 
mdadm: stopped /dev/md0
jayme@SRV1:~$ sudo mdadm -v --assemble /dev/md0 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: looking for devices for /dev/md0
mdadm: /dev/sdb1 is identified as a member of /dev/md0, slot 0.
mdadm: /dev/sdc1 is identified as a member of /dev/md0, slot 1.
mdadm: /dev/sdd1 is identified as a member of /dev/md0, slot -1.
mdadm: added /dev/sdb1 to /dev/md0 as 0 (possibly out of date)
mdadm: no uptodate device for slot 2 of /dev/md0
mdadm: added /dev/sdd1 to /dev/md0 as -1
mdadm: added /dev/sdc1 to /dev/md0 as 1
mdadm: /dev/md0 assembled from 1 drive and 1 spare - not enough to start the array.

A+
GJ

Hors ligne

#18 Le 02/08/2019, à 19:44

jamesbad000

Re : reconfiguration RAID

Quand même pour avoir un spare sur un raid 5 à 3 disques il a du falloir forcer un peu les choses. Parce que sur une grappe en fonctionnement le spare vient automatiquement prendre la place d'un disque manquant...

Ok tentons de forcer un peu les choses, sans prendre de risque.

sudo mdadm --stop /dev/md0
sudo mdadm -v  --assemble --readonly --force /dev/md0 /dev/sd[bcd]1 

ps tu peux laisser sd[bcd]1 tel quel, ça fonctionne.

edit :

au post #5 Jayme a écrit :
sudo mdadm --create /dev/md0 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1
...
mdadm: partition table exists on /dev/sdb1 but will be lost
...
mdadm: partition table exists on /dev/sdc1 but will be lost or

Plutôt inhabituel de trouver une table de partition dans une partition. Et la c'est sur 2 partitions...

Dernière modification par jamesbad000 (Le 02/08/2019, à 20:06)


L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne

#19 Le 02/08/2019, à 20:41

Jayme

Re : reconfiguration RAID

Salut,
Vraiment je me suis pas aperçu, je trouvai que les accès disques étaient ralenti et puis ça s'est dégradé rapidement. c'est lorsque j'ai rallumé le PC que le disque système a posé problème. J(ai booté avec la clés USB de UBUNTU, j'ai réparé le disque système mais il y avait beaucoup trop d'erreurs pour démarrer correctement.

J'ai effectué les commandes je pense qu'on est sur la bonne voie :

sudo mdadm --stop /dev/md0
[sudo] Mot de passe de jayme : 
mdadm: stopped /dev/md0
jayme@SRV1:/etc$ sudo mdadm -v --assemble -readonly --force /dev/md0 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: option -r not valid in assemble mode
jayme@SRV1:/etc$ sudo mdadm -v --assemble --readonly --force /dev/md0 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: looking for devices for /dev/md0
mdadm: /dev/sdb1 is identified as a member of /dev/md0, slot 0.
mdadm: /dev/sdc1 is identified as a member of /dev/md0, slot 1.
mdadm: /dev/sdd1 is identified as a member of /dev/md0, slot -1.
mdadm: forcing event count in /dev/sdb1(0) from 522 upto 2752
mdadm: clearing FAULTY flag for device 2 in /dev/md0 for /dev/sdd1
mdadm: Marking array /dev/md0 as 'clean'
mdadm: added /dev/sdc1 to /dev/md0 as 1
mdadm: no uptodate device for slot 2 of /dev/md0
mdadm: added /dev/sdd1 to /dev/md0 as -1
mdadm: added /dev/sdb1 to /dev/md0 as 0
mdadm: /dev/md0 has been started with 2 drives (out of 3) and 1 spare.

Je pense qu'il y a encore des commandes a envoyer puis à changer ou ajouter un disque?

A+

GJ

Dernière modification par Jayme (Le 02/08/2019, à 20:45)

Hors ligne

#20 Le 02/08/2019, à 21:01

jamesbad000

Re : reconfiguration RAID

Le problème c'est qu'on a forcé l'usage d'un disque désynchronisé. Ce qui peut donner un résultat tout à fait impropre à la consommation...
Pour l'instant la grappe est activé en read-only et on va pouvoir regarder si on trouve quelque chose d'exploitable dedans.

sudo lsblk -o size,name,fstype,label,mountpoint
sudo fsck -fn /dev/md0
sudo mount -o ro /dev/md0 /mnt
ls /mnt

L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne

#21 Le 02/08/2019, à 22:43

Jayme

Re : reconfiguration RAID

Salut, le fsck ne marche pas

lsblk -o size,name,fstype,label,mountpoint
  SIZE NAME    FSTYPE            LABEL  MOUNTPOINT
149,9M loop0   squashfs                 /snap/gnome-3-28-1804/67
 42,8M loop1   squashfs                 /snap/gtk-common-themes/1313
140,7M loop2   squashfs                 /snap/gnome-3-26-1604/90
 1008K loop3   squashfs                 /snap/gnome-logs/61
 54,4M loop4   squashfs                 /snap/core18/1066
 34,6M loop5   squashfs                 /snap/gtk-common-themes/818
 14,5M loop6   squashfs                 /snap/gnome-logs/45
  3,7M loop7   squashfs                 /snap/gnome-system-monitor/57
   91M loop8   squashfs                 /snap/core/6350
  3,7M loop9   squashfs                 /snap/gnome-system-monitor/100
 14,8M loop10  squashfs                 /snap/gnome-characters/296
 88,5M loop11  squashfs                 /snap/core/7270
   13M loop12  squashfs                 /snap/gnome-characters/139
  2,3M loop13  squashfs                 /snap/gnome-calculator/260
    4M loop14  squashfs                 /snap/gnome-calculator/406
140,7M loop15  squashfs                 /snap/gnome-3-26-1604/74
232,9G sda                              
232,9G └─sda1  ext4                     /
  1,8T sdb                              
  1,8T └─sdb1  linux_raid_member SRV1:0 
  3,7T   └─md0                          
  1,8T sdc                              
  1,8T └─sdc1  linux_raid_member SRV1:0 
  3,7T   └─md0                          
  1,8T sdd                              
  1,8T └─sdd1  linux_raid_member SRV1:0 
  3,7T   └─md0                          
931,5G sde                              
931,5G └─sde1  ext4              PASSW  /media/jayme/PASSW
 1024M sr0       
sudo fsck -fn /dev/md0
fsck de util-linux 2.31.1
e2fsck 1.44.1 (24-Mar-2018)
ext2fs_open2: Numéro magique invalide dans le super-bloc
fsck.ext2 : Superbloc invalide, tentons d'utiliser les blocs de sauvetage...
fsck.ext2: Numéro magique invalide dans le super-bloc lors de la tentative d'ouverture de /dev/md0

Le superbloc n'a pu être lu ou ne contient pas un système de fichiers
ext2/ext3/ext4 correct. Si le périphérique est valide et qu'il contient réellement
un système de fichiers ext2/ext3/ext4 (et non pas de type swap, ufs ou autre),
alors le superbloc est corrompu, et vous pourriez tenter d'exécuter
e2fsck avec un autre superbloc :
    e2fsck -b 8193 <périphérique>
 ou
    e2fsck -b 32768 <périphérique>
sudo mount -o ro /dev/md0 /mnt
[sudo] Mot de passe de jayme : 
mount: /mnt : wrong fs type, bad option, bad superblock on /dev/md0, missing codepage or helper program, or other error.

et e2fsck ne peut pas car il faut être root et je ne sais pas le faire.

A+

GJ

Dernière modification par Jayme (Le 02/08/2019, à 23:07)

Hors ligne

#22 Le 02/08/2019, à 22:47

Jayme

Re : reconfiguration RAID

Je viens d'apprendre a me mettre en root
mais le disque est en accès read only, c'est possible de le changer?

A+

GJ

Hors ligne

#23 Le 02/08/2019, à 22:56

jamesbad000

Re : reconfiguration RAID

Je l'ai activé en read only exprès pour pouvoir vérifier, sans faire d'autres dégât irréversible , que l'on a une grappe exploitable. Et se laisser la possibilité d'essayer autre chose dans le cas contraire.

Jayme a écrit :

Je viens d'apprendre a me mettre en root

D'abord c'est parfaitement inutile puisque sudo te donne un accès root.
Ensuite j'aimerais bien que tu m’envoies la/les commandes exactes que tu as passées et ce qu'elles ont répondues, histoire que je comprenne ou on en est. Parce que là je ne vois pas...

Dernière modification par jamesbad000 (Le 02/08/2019, à 23:00)


L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne

#24 Le 02/08/2019, à 23:10

Jayme

Re : reconfiguration RAID

Voila :

sudo lsblk -o size,name,fstype,label,mountpoint
  SIZE NAME    FSTYPE            LABEL  MOUNTPOINT
149,9M loop0   squashfs                 /snap/gnome-3-28-1804/67
 42,8M loop1   squashfs                 /snap/gtk-common-themes/1313
140,7M loop2   squashfs                 /snap/gnome-3-26-1604/90
 1008K loop3   squashfs                 /snap/gnome-logs/61
 54,4M loop4   squashfs                 /snap/core18/1066
 34,6M loop5   squashfs                 /snap/gtk-common-themes/818
 14,5M loop6   squashfs                 /snap/gnome-logs/45
  3,7M loop7   squashfs                 /snap/gnome-system-monitor/57
   91M loop8   squashfs                 /snap/core/6350
  3,7M loop9   squashfs                 /snap/gnome-system-monitor/100
 14,8M loop10  squashfs                 /snap/gnome-characters/296
 88,5M loop11  squashfs                 /snap/core/7270
   13M loop12  squashfs                 /snap/gnome-characters/139
  2,3M loop13  squashfs                 /snap/gnome-calculator/260
    4M loop14  squashfs                 /snap/gnome-calculator/406
140,7M loop15  squashfs                 /snap/gnome-3-26-1604/74
232,9G sda                              
232,9G └─sda1  ext4                     /
  1,8T sdb                              
  1,8T └─sdb1  linux_raid_member SRV1:0 
  3,7T   └─md0                          
  1,8T sdc                              
  1,8T └─sdc1  linux_raid_member SRV1:0 
  3,7T   └─md0                          
  1,8T sdd                              
  1,8T └─sdd1  linux_raid_member SRV1:0 
  3,7T   └─md0                          
931,5G sde                              
931,5G └─sde1  ext4              PASSW  /media/jayme/PASSW
 1024M sr0                              
jayme@SRV1:~$ sudo fsck -fn /dev/md0
fsck de util-linux 2.31.1
e2fsck 1.44.1 (24-Mar-2018)
ext2fs_open2: Numéro magique invalide dans le super-bloc
fsck.ext2 : Superbloc invalide, tentons d'utiliser les blocs de sauvetage...
fsck.ext2: Numéro magique invalide dans le super-bloc lors de la tentative d'ouverture de /dev/md0

Le superbloc n'a pu être lu ou ne contient pas un système de fichiers
ext2/ext3/ext4 correct. Si le périphérique est valide et qu'il contient réellement
un système de fichiers ext2/ext3/ext4 (et non pas de type swap, ufs ou autre),
alors le superbloc est corrompu, et vous pourriez tenter d'exécuter
e2fsck avec un autre superbloc :
    e2fsck -b 8193 <périphérique>
 ou
    e2fsck -b 32768 <périphérique>

jayme@SRV1:~$ sudo mount -o ro /dev/md0 /mnt
mount: /mnt : wrong fs type, bad option, bad superblock on /dev/md0, missing codepage or helper program, or other error.

A+

GJ

Hors ligne

#25 Le 02/08/2019, à 23:30

jamesbad000

Re : reconfiguration RAID

Ok en fin de compte tu n'as rien fait de plus que les commandes que j'avais indiqué.
Bon. A ce stade il faut faire une scan de la partition avec testdisk, pour voir si on retrouve les traces d'un système de fichier.

Pour installer testdisk :

sudo apt-get install testdisk

Ensuite lancer :

sudo testdisk /log /dev/md0

sur le 1er écran choisir

  >[None   ] Non partitioned media

aller dans

>[ Options  ] Modify options

puis modifier l'option d'alignement à No

   >Align partition: No
    [ Ok ]

Une fois validée l'option d'alignement. Le menu est réaffiché. Lancer l'analyse

>[ Analyse  ] 

Ensuite valider les écrans par entrée, jusqu'à ce qu'il propose, en bas d'écran :

[Deeper search]

Valider à nouveau et laisser tourner. Ca va probablement durer plusieurs heures...
Lorsque c'est terminé, envoyer une copie de l'écran. et laisser en l'état.

Dernière modification par jamesbad000 (Le 02/08/2019, à 23:46)


L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne