Contenu | Rechercher | Menus

Annonce

Si vous avez des soucis pour rester connecté, déconnectez-vous puis reconnectez-vous depuis ce lien en cochant la case
Me connecter automatiquement lors de mes prochaines visites.

À propos de l'équipe du forum.

#1 Le 04/07/2021, à 20:05

Pat97615

Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

Bonsoir,

Tout d’abord, merci à tous les spécialistes qui animent ce forum et résolvent bon nombre de cas hors de portée des novices, dont  je suis!

Je suis confronté à un problème de Raid qui ne se monte plus, suite à des soucis sur le serveur (Ve-hotech Xtrem II): Il s'est mis à s'éteindre tout seul, rapidement, pendant les séquences de boot.

Après démontage et retrait de la carte TV, il a bien voulu rester ON mais le raid ne se monte plus et je n'ai donc plus accès aux données.

L'interface par navigateur m'indique que le disque 2 (sdb) n'est pas dans la grappe et me propose de l'ajouter: exécuter cette action mène à une erreur "Trop d'arguments".
Puis l'écran suivant montre mes 4 disques non présents dans le raid...

Interface web pour la gestion des disques
https://1drv.ms/u/s!AtAF9CKlzgi3whXjgn3 … I?e=4oXCcw

Ecran suite à la tentative d'ajout du disque b
https://1drv.ms/u/s!AtAF9CKlzgi3whbhBBj … 3?e=BelY7l

Avec Putty, la commande "sudo lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT[" donne:

NAME      SIZE FSTYPE            TYPE  MOUNTPOINT
sda       2.7T                   disk
├─sda1  486.4M swap              part  [SWAP]
├─sda2    4.7G linux_raid_member part
│ └─md0   4.7G ext4              raid1 /
└─sda3    2.7T linux_raid_member part

Le disque (b) = trois partitions :
SWAP 1 de 486.4M
OS 2 de 4.7G,  Mais il n'est pas monté dans le RAID 1 md0
DATA 3 de 2.7T Mais il n'est pas monté dans le RAID 5 md3
sdb       2.7T                   disk
├─sdb1  486.4M swap              part
├─sdb2    4.7G linux_raid_member part
└─sdb3    2.7T linux_raid_member part

Ce que l'on trouve avec sda est identique avec sdc et sdd. Pour résumer, seul le disque b n'est pas monté dans le raid 1 md0
et les 4 disques ne sont pas montés dans le raid 5 md3.

Il y a un sde de 3.8 Go qui est la clé de boot USB d'origine.

Étant novice en Linux et en raid je crains trop de faire des erreurs qui compliqueraient ou empêcheraient de retrouver l'accès aux données pour les sauvegarder.

Est-il automatique que le raid 5 tombe lorsqu'un des disques du raid 1 md0 est sorti?


Serait-il possible de démonter le disque b de la grappe et de relancer le raid en mode dégradé avec 3 disques sur 4?
Ensuite, remonter un disque neuf à la place du b, permettrait-il alors sa reconstruction pour retrouver mon raid 5 à 4 disques?
Bref je ne suis sûr de presque rien et je pense plus prudent de me tourner vers le forum.

Voici un lien vers un fichier qui contient les résultats de toutes les commandes de vérification lancées avec Putty:
https://1drv.ms/t/s!AtAF9CKlzgi3whRFaQkZB7VdrkcV

Si des spécialistes parmi vous ont connu un problème similaire, peut-être pourraient-ils me conseiller pour me tirer de cette situation préoccupante!?

Conscient du temps et de l'énergie nécessaire à la résolution de ce genre de problème, un grand merci pour votre aide!

Pat

Hors ligne

#2 Le 04/07/2021, à 21:37

geole

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

Pat97615 a écrit :

Bonsoir,



Je suis confronté à un problème de Raid qui ne se monte plus, suite à des soucis sur le serveur (Ve-hotech Xtrem II): Il s'est mis à s'éteindre tout seul, rapidement, pendant les séquences de boot.

Après démontage et retrait de la carte TV, il a bien voulu rester ON mais le raid ne se monte plus et je n'ai donc plus accès aux données

https://1drv.ms/u/s!AtAF9CKlzgi3whbhBBj … 3?e=BelY7l

Bonsoir.
Ta capture d'écran montre que tu veux remonter le raids0 qui est opérationnel alors qu'à mon avis, il faut que tu choisisses le raids5 qui est cassé.
Le rapport smartctl montre 4 disques en bon état. Je ne comprends pas la raison qui empêche le démarrage. On voit que le disque SDB est passé removed sans raison évidente.

admin@vhs-4:/$ sudo mdadm --detail /dev/md3

/dev/md3:
        Version : 1.0
  Creation Time : Sat Jan 14 16:21:09 2012
     Raid Level : raid5
  Used Dev Size : -1
   Raid Devices : 4
  Total Devices : 3
    Persistence : Superblock is persistent
    Update Time : Sat Jun 26 19:03:15 2021
          State : active, degraded, Not Started
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0
         Layout : left-symmetric
     Chunk Size : 64K
           Name : VHS-4:3
           UUID : ab727cf1:4bcd8136:f183c289:e268f49f
         Events : 671256
    Number   Major   Minor   RaidDevice State
       0       0        0        0      removed
       1       8        3        1      active sync   /dev/sda3
       3       8       35        2      active sync   /dev/sdc3
       4       8       51        3      active sync   /dev/sdd3

Peux-tu donner le retour de cette commande en copier/coller avec mise en forme.

sudo smartctl -a /dev/sdb

D'autre part, ton ubuntu est périmé.
admin@192.168.1.150's password:y90606
Welcome to Ubuntu 14.04.2 LTS (GNU/Linux 3.16.0-31-generic x86_64)
  System information as of Tue Jun 29 15:16:42 CEST 2021

L'accès à la documentation du raids si je ne me trompe pas https://madovi.xyz/lib/exe/fetch.php?me … pdf#page33


Si tu court-circuite le logiciel de l'appareil, tu peux tenter cette commande

sudo  mdadm --assemble --force /dev/md3 /dev/sdb3  /dev/sda3 /dev/sdc3 /dev/sdd3

Dernière modification par geole (Le 04/07/2021, à 23:30)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#3 Le 04/07/2021, à 23:47

Pat97615

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

Bonsoir geole,

Merci pour cette réponse super rapide!

En fait je ne cherche pas à remonter le raid 0. La capture d'écran montre ce que j'obtiens à  l'affichage en cliquant sur ajouter ce disque (l'autre écran du raid 5 avec 3 disques en vert et le sdb à ajouter). L'interface doit mettre raid 0 par défaut car je n'ai rien choisi dans la liste déroulante et elle précise en haut "Il y a trop d'arguments".

Comme je mets mon nez dans les problèmes de raid depuis peu,  j'ai un peu peur de tout, rapport au risque de perte de données.

Du coup je me pose des questions du style: si je choisis raid 5 avec ajouter les 4 disques à partir de l'interface (img 2ème écran), ne va-t-il pas y avoir une reconstruction d'un nouveau raid 5 avec suppression de mes données? Prudence de débutant qui préfère qu'un pro lui confirme si il y a ce risque ou si la reconstruction conserve les données sur le raid 5...

Résultat de la commande smartctl: (comment réalise-t-on la mise en forme adéquate?)

admin@vhs-4:/$ sudo smartctl -a /dev/sdb
[sudo] password for admin:
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.16.0-31-generic] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Red (AF)
Device Model:     WDC WD30EFRX-68EUZN0
Serial Number:    WD-WCC4N0NLY38Y
LU WWN Device Id: 5 0014ee 2111a2902
Firmware Version: 82.00A82
User Capacity:    3,000,592,982,016 bytes [3.00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    5400 rpm
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ACS-2 (minor revision not indicated)
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is:    Sun Jul  4 23:37:38 2021 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x00) Offline data collection activity
                                        was never started.
                                        Auto Offline Data Collection: Disabled.
Self-test execution status:      (   0) The previous self-test routine completed
                                        without error or no self-test has ever
                                        been run.
Total time to complete Offline
data collection:                (40680) seconds.
Offline data collection
capabilities:                    (0x7b) SMART execute Offline immediate.
                                        Auto Offline data collection on/off support.
                                        Suspend Offline collection upon new
                                        command.
                                        Offline surface scan supported.
                                        Self-test supported.
                                        Conveyance Self-test supported.
                                        Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                                        power-saving mode.
                                        Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                                        General Purpose Logging supported.
Short self-test routine
recommended polling time:        (   2) minutes.
Extended self-test routine
recommended polling time:        ( 408) minutes.
Conveyance self-test routine
recommended polling time:        (   5) minutes.
SCT capabilities:              (0x703d) SCT Status supported.
                                        SCT Error Recovery Control supported.
                                        SCT Feature Control supported.
                                        SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0027   182   182   021    Pre-fail  Always       -       5883
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       60
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   090   090   000    Old_age   Always       -       7806
 10 Spin_Retry_Count        0x0032   100   253   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   253   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       60
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       31
193 Load_Cycle_Count        0x0032   200   200   000    Old_age   Always       -       311
194 Temperature_Celsius     0x0022   111   087   000    Old_age   Always       -       39
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   100   253   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   100   253   000    Old_age   Offline      -       0

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]


SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

Cool! Je viens de comprendre la mise en forme du code avec les balises du forum! tongue

Pour mon Ubuntu, c'est celui que ve-hotech a laissé sur la clé de boot fournie avec le serveur. Après leur dépot de bilan et la fin de la maintenance, il n'y a plus eu de
mise à jour...Si j'arrive à récupérer le raid 5 et les données, j'essayerai de remonter un serveur avec un Ubuntu à jour et un matériel plus performant incluant une vraie sauvegarde.

Je vais attendre tes réponses puis tenter la commande de reconstruction du raid 5 que tu me proposes.
Ne penses-tu pas qu'il serait utile de remettre le disque b dans le md0 avant?

Merci encore pour le temps accordé à mon problème et les réponses!

Bonne nuit de Mayotte.

Pat

Hors ligne

#4 Le 05/07/2021, à 11:24

geole

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

Bonjour

Pat97615 a écrit :

En fait je ne cherche pas à remonter le raid 0. La capture d'écran montre ce que j'obtiens à  l'affichage en cliquant sur ajouter ce disque (l'autre écran du raid 5 avec 3 disques en vert et le sdb à ajouter). L'interface doit mettre raid 0 par défaut car je n'ai rien choisi dans la liste déroulante et elle précise en haut "Il y a trop d'arguments".

La documentation   du raids dit que le mode raids-0 est à déconseiller. Qu'elle le propose est amusant....
Je n'ai pas ce type de périphérique, mais je pense que le menu proposé devrait  te permettre   de choisir RAID5   avant d'ajouter le disque    (ou une partition du disque).

Pat97615 a écrit :

Pour mon Ubuntu, c'est celui que ve-hotech a laissé sur la clé de boot fournie avec le serveur. Après leur dépot de bilan et la fin de la maintenance, il n'y a plus eu de mise à jour...Si j'arrive à récupérer le raid 5 et les données, j'essayerai de remonter un serveur avec un Ubuntu à jour et un matériel plus performant incluant une vraie sauvegarde.

Malheureusement, on ne pourra pas leur demander conseil sur l'utilisation de leur logiciel.
j'en déduis que  tu n'as pas envisagé la panne matérielle de cet appareil et que tu ne disposes pas de double de tes données.
On devrait trouver une solution pour migrer en 20.04  Mais cela n'est pas prioritaire.

Pat97615 a écrit :

Cool! Je viens de comprendre la mise en forme du code avec les balises du forum!

Je confirme que le disque SDB est en parfait état, qu'il a 7806 heures de fonctionnement, qu'il est donc usé à 10% environ  et qu'il  n'a jamais rencontré des erreurs de lectures. ( option  petit a au lieu de grand A ).

Ayant plus regardé les messages dmsg, pourrais-tu aussi donner ces retours

sudo smartctl   -a /dev/sda
sudo smartctl   -a /dev/sdc
sudo smartctl   -a /dev/sdd
Pat97615 a écrit :

Ne penses-tu pas qu'il serait utile de remettre le disque b dans le md0 avant?

Pourquoi pas....    Cela ferait une répétition  sans risque

sudo  mdadm --assemble --force /dev/md0 /dev/sdb2  /dev/sda2 /dev/sdc2 /dev/sdd2   #### ???????

Le problème est que md0 est identifié comme étant un RAID1 . Il ne devrait donc avoir que deux disques et  pas quatre!!!!!
Je n'ai pas encore compris comment tu as pu le créer  quatre ans plus tard avec les outils de ce fabricant

sudo mdadm --detail /dev/md3
/dev/md3:
        Version : 1.0
  Creation Time : Sat Jan 14 16:21:09 2012
     Raid Level : raid5

sudo mdadm --detail /dev/md0

/dev/md0:
        Version : 1.0
  Creation Time : Sat Feb 27 12:09:44 2016
     Raid Level : raid1

Peux-tu faire ces commandes qui vont permettre de visualiser toutes les partitions de tes disques.

sudo parted /dev/sda unit    MiB print free
sudo parted /dev/sdb unit    MiB print free
sudo parted /dev/sdc unit    MiB print free
sudo parted /dev/sdd unit    MiB print free

Peux-tu faire cette commande ( j'espère qu'elle existe en version 14.04)

journalctl -b | grep md0
journalctl -b | grep md3

D'autre part, redonne le retour complet de cette commande afin d'avoir tout au même endroit.

sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT

Tu peux tenter cette commande qui ne réinitialise pas le RAID. Elle se contente de le monter.

sudo  mdadm --assemble --force --run /dev/md3 /dev/sdb3  /dev/sda3 /dev/sdc3 /dev/sdd3

et si cela se passe bien

cat /proc/mdstat
sudo fsck /dev/md3
sudo mkdir /media/RAID3
sudo mount /dev/md3 /media/RAID3
sudo ls -Rls /media/RAID3

Tu peux aussi tenter une réparation

sudo mdadm --manage /dev/md3 --set-faulty /dev/sdb3

Attendre 15 secondes

sudo mdadm --manage /dev/md3 --remove /dev/sdb3

Attendre 15 secondes

sudo mdadm --manage /dev/md3 --add /dev/sdb3

Je remets la même partition car le disque est physiquement OK et attendre que cela se reconstruise.

watch -n 60  cat /proc/mdstat

D'autre part, tu peux lire ce document ( https://doc.ubuntu-fr.org/raid_logiciel ) en ayant à l'esprit que la version 20.04 c'est 30 Go de place disque et pas 4,7 go.

Dernière modification par geole (Le 05/07/2021, à 11:28)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#5 Le 05/07/2021, à 16:09

Pat97615

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

Bonjour,

Oui 2 disques, le a et le b sont récents (2019) et peu d'heures de vol, alors que le c et le d datent de 2012!

Pour les commandes:

sudo

admin@vhs-4:/$ sudo smartctl -a /dev/sda
[sudo] password for admin:
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.16.0-31-generic] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Red (AF)
Device Model:     WDC WD30EFRX-68EUZN0
Serial Number:    WD-WCC4N0NLY2PK
LU WWN Device Id: 5 0014ee 2666f6679
Firmware Version: 82.00A82
User Capacity:    3,000,592,982,016 bytes [3.00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    5400 rpm
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ACS-2 (minor revision not indicated)
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is:    Mon Jul  5 14:25:13 2021 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x00) Offline data collection activity
                                        was never started.
                                        Auto Offline Data Collection: Disabled.
Self-test execution status:      (   0) The previous self-test routine completed
                                        without error or no self-test has ever
                                        been run.
Total time to complete Offline
data collection:                (40680) seconds.
Offline data collection
capabilities:                    (0x7b) SMART execute Offline immediate.
                                        Auto Offline data collection on/off support.
                                        Suspend Offline collection upon new
                                        command.
                                        Offline surface scan supported.
                                        Self-test supported.
                                        Conveyance Self-test supported.
                                        Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                                        power-saving mode.
                                        Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                                        General Purpose Logging supported.
Short self-test routine 
recommended polling time:        (   2) minutes.
Extended self-test routine
recommended polling time:        ( 408) minutes.
Conveyance self-test routine
recommended polling time:        (   5) minutes.
SCT capabilities:              (0x703d) SCT Status supported.
                                        SCT Error Recovery Control supported.
                                        SCT Feature Control supported.
                                        SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0027   181   180   021    Pre-fail  Always       -       5933
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       62
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   090   090   000    Old_age   Always       -       7877
 10 Spin_Retry_Count        0x0032   100   253   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   253   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       62
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       30
193 Load_Cycle_Count        0x0032   200   200   000    Old_age   Always       -       248
194 Temperature_Celsius     0x0022   108   082   000    Old_age   Always       -       42
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   100   253   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   100   253   000    Old_age   Offline      -       0

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]


SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
admin@vhs-4:/$ sudo smartctl -a /dev/sdc
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.16.0-31-generic] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Caviar Green (AF, SATA 6Gb/s)
Device Model:     WDC WD30EZRX-00MMMB0
Serial Number:    WD-WCAWZ1652173
LU WWN Device Id: 5 0014ee 2066aefb4
Firmware Version: 80.00A80
User Capacity:    3,000,592,982,016 bytes [3.00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ATA8-ACS (minor revision not indicated)
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is:    Mon Jul  5 14:31:45 2021 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x82) Offline data collection activity
                                        was completed without error.
                                        Auto Offline Data Collection: Enabled.
Self-test execution status:      (   0) The previous self-test routine completed
                                        without error or no self-test has ever
                                        been run.
Total time to complete Offline
data collection:                (51660) seconds.
Offline data collection
capabilities:                    (0x7b) SMART execute Offline immediate.
                                        Auto Offline data collection on/off support.
                                        Suspend Offline collection upon new
                                        command.
                                        Offline surface scan supported.
                                        Self-test supported.
                                        Conveyance Self-test supported.
                                        Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                                        power-saving mode.
                                        Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                                        General Purpose Logging supported.
Short self-test routine
recommended polling time:        (   2) minutes.
Extended self-test routine
recommended polling time:        ( 496) minutes.
Conveyance self-test routine
recommended polling time:        (   5) minutes.
SCT capabilities:              (0x3035) SCT Status supported.
                                        SCT Feature Control supported.
                                        SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0027   148   144   021    Pre-fail  Always       -       9566
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       559
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   043   043   000    Old_age   Always       -       42016
 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       557
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       220
193 Load_Cycle_Count        0x0032   001   001   000    Old_age   Always       -       2913218
194 Temperature_Celsius     0x0022   105   075   000    Old_age   Always       -       47
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   200   200   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       93
200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       0

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]


SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
admin@vhs-4:/$ sudo -a /dev/sdd
usage: sudo -h | -K | -k | -V
usage: sudo -v [-AknS] [-g group] [-h host] [-p prompt] [-u user]
usage: sudo -l [-AknS] [-g group] [-h host] [-p prompt] [-U user] [-u user] [command]
usage: sudo [-AbEHknPS] [-r role] [-t type] [-C num] [-g group] [-h host] [-p prompt] [-u
            user] [VAR=value] [-i|-s] [<command>]
usage: sudo -e [-AknS] [-r role] [-t type] [-C num] [-g group] [-h host] [-p prompt] [-u
            user] file ...
admin@vhs-4:/$ sudo smartctl -a /dev/sdd
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.16.0-31-generic] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Caviar Green (AF, SATA 6Gb/s)
Device Model:     WDC WD30EZRX-00MMMB0
Serial Number:    WD-WCAWZ1565484
LU WWN Device Id: 5 0014ee 25bb53093
Firmware Version: 80.00A80
User Capacity:    3,000,592,982,016 bytes [3.00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ATA8-ACS (minor revision not indicated)
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is:    Mon Jul  5 14:34:23 2021 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x84) Offline data collection activity
                                        was suspended by an interrupting command from host.
                                        Auto Offline Data Collection: Enabled.
Self-test execution status:      (   0) The previous self-test routine completed
                                        without error or no self-test has ever
                                        been run.
Total time to complete Offline
data collection:                (51900) seconds.
Offline data collection
capabilities:                    (0x7b) SMART execute Offline immediate.
                                        Auto Offline data collection on/off support.
                                        Suspend Offline collection upon new
                                        command.
                                        Offline surface scan supported.
                                        Self-test supported.
                                        Conveyance Self-test supported.
                                        Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                                        power-saving mode.
                                        Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                                        General Purpose Logging supported.
Short self-test routine
recommended polling time:        (   2) minutes.
Extended self-test routine
recommended polling time:        ( 498) minutes.
Conveyance self-test routine
recommended polling time:        (   5) minutes.
SCT capabilities:              (0x3035) SCT Status supported.
                                        SCT Feature Control supported.
                                        SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0027   143   142   021    Pre-fail  Always       -       9841
  4 Start_Stop_Count        0x0032   099   099   000    Old_age   Always       -       1324
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   052   052   000    Old_age   Always       -       35186
 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   099   099   000    Old_age   Always       -       1300
192 Power-Off_Retract_Count 0x0032   199   199   000    Old_age   Always       -       840
193 Load_Cycle_Count        0x0032   001   001   000    Old_age   Always       -       2428919
194 Temperature_Celsius     0x0022   102   079   000    Old_age   Always       -       50
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   200   200   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       0

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]


SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
admin@vhs-4:/$ sudo parted /dev/sda unit Mib print free
Model: ATA WDC WD30EFRX-68E (scsi)
Disk /dev/sda: 2861588MiB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt

Number  Start    End         Size        File system     Name     Flags
        0.02MiB  0.02MiB     0.00MiB     Free Space
 1      0.02MiB  486MiB      486MiB      linux-swap(v1)  primary  raid
 2      486MiB   5256MiB     4769MiB     ext4            primary  boot
 3      5256MiB  2861588MiB  2856333MiB                  primary  raid
admin@vhs-4:/$ sudo parted /dev/sdb unit Mib print free
Model: ATA WDC WD30EFRX-68E (scsi)
Disk /dev/sdb: 2861588MiB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt

Number  Start    End         Size        File system     Name     Flags
        0.02MiB  0.02MiB     0.00MiB     Free Space
 1      0.02MiB  486MiB      486MiB      linux-swap(v1)  primary  raid
 2      486MiB   5256MiB     4769MiB     ext4            primary  boot
 3      5256MiB  2861588MiB  2856333MiB                  primary  raid
admin@vhs-4:/$ sudo parted /dev/sdc unit Mib print free
Model: ATA WDC WD30EZRX-00M (scsi)
Disk /dev/sdc: 2861588MiB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt

Number  Start    End         Size        File system     Name     Flags
        0.02MiB  0.02MiB     0.00MiB     Free Space
 1      0.02MiB  486MiB      486MiB      linux-swap(v1)  primary  raid
 2      486MiB   5256MiB     4769MiB     ext4            primary  boot
 3      5256MiB  2861588MiB  2856333MiB                  primary  raid
admin@vhs-4:/$ sudo parted /dev/sdd unit Mib print free
Model: ATA WDC WD30EZRX-00M (scsi)
Disk /dev/sdd: 2861588MiB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt

Number  Start    End         Size        File system     Name     Flags
        0.02MiB  0.02MiB     0.00MiB     Free Space
 1      0.02MiB  486MiB      486MiB      linux-swap(v1)  primary  raid
 2      486MiB   5256MiB     4769MiB     ext4            primary  boot
 3      5256MiB  2861588MiB  2856333MiB                  primary  raid
admin@vhs-4:/$ sudo journalct1 -b | grep md0
sudo: journalct1: command not found
admin@vhs-4:/$ sudo journal ctl -b | grep md0
sudo: journal: command not found
admin@vhs-4:/$ sudo lsbk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
sudo: lsbk: command not found
admin@vhs-4:/$ sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
[sudo] password for admin:
Sorry, try again.
[sudo] password for admin:
  SIZE NAME    FSTYPE            LABEL          MOUNTPOINT
  2.7T sda
486.4M ├─sda1  swap                             [SWAP]
  4.7G ├─sda2  linux_raid_member system:upgrade
  4.7G │ └─md0 ext4              6.1.4          /
  2.7T └─sda3  linux_raid_member VHS-4:3
  2.7T sdb
486.4M ├─sdb1  swap
  4.7G ├─sdb2  linux_raid_member system:upgrade
  2.7T └─sdb3  linux_raid_member VHS-4:3
  2.7T sdc
486.4M ├─sdc1  swap                             [SWAP]
  4.7G ├─sdc2  linux_raid_member system:upgrade
  4.7G │ └─md0 ext4              6.1.4          /
  2.7T └─sdc3  linux_raid_member VHS-4:3
  2.7T sdd
486.4M ├─sdd1  swap                             [SWAP]
  4.7G ├─sdd2  linux_raid_member system:upgrade
  4.7G │ └─md0 ext4              6.1.4          /
  2.7T └─sdd3  linux_raid_member VHS-4:3
  3.8G sde
  3.8G └─sde1                         

Voilà pour les commandes. Comme tu le supposais , "journalctl" a renvoyé "command not found".

Je vais maintenant tenter de lancer les commandes que tu m'as conseillées et je te fais un retour...

Merci pour tout ça!

Pat

Hors ligne

#6 Le 05/07/2021, à 16:18

Pat97615

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

La commande pour remonter le raid donne:

admin@vhs-4:/$ sudo mdadm --assemble --force --run /dev/md3 /dev/sdb3 /dev/sda3 /dev/sdc3 /dev/sdd3
mdadm: /dev/sda3 is busy - skipping
mdadm: /dev/sdc3 is busy - skipping
mdadm: /dev/sdd3 is busy - skipping
mdadm: /dev/md3 is already in use.

Hors ligne

#7 Le 05/07/2021, à 16:24

Pat97615

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

Pour le raid 0, même chose:

admin@vhs-4:/$ sudo mdadm --assemble --force /dev/md0 /dev/sdb2 /dev/sda2 /dev/sdc2 /dev/sdd2 #### ???????
mdadm: /dev/sda2 is busy - skipping
mdadm: /dev/sdc2 is busy - skipping
mdadm: /dev/sdd2 is busy - skipping
mdadm: /dev/md0 is already in use.

Hors ligne

#8 Le 05/07/2021, à 16:35

geole

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

Tente quand même cette commande qui simulera une réparation

sudo fsck  -N   /dev/md3

NOTA; J'ai vu que tes quatre disques sont découpés à l'identique
           Une  partition de 486 MiB   une autre de 4 969 MiB et le tout reste pour une taille de 2 856 333 MiB
L'utilisation des disques est respectivement de 7877,   7806,  42016 et 35186 heures. Aucun n'a signalé d'erreurs de lecture écriture

Dernière modification par geole (Le 05/07/2021, à 16:49)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#9 Le 05/07/2021, à 16:38

Pat97615

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

Les commandes ont été lancées à partir de Putty. Sinon, voici l'écran actuel du moniteur branché au serveur...

Ecran du serveur VHS4 pendant les commandes essayées.

Hors ligne

#10 Le 05/07/2021, à 16:46

Pat97615

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

Avant "mdadm --assemble" ne faudrait-il pas lancer "mdadm --stop" ?

Ok je lance fsck

Hors ligne

#11 Le 05/07/2021, à 16:48

Pat97615

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

Retour de "fsck":

admin@vhs-4:/$ sudo fsck -N /dev/md3
[sudo] password for admin:
fsck from util-linux 2.20.1
[/sbin/fsck.ext2 (1) -- /dev/md3] fsck.ext2 /dev/md3

Hors ligne

#12 Le 05/07/2021, à 16:51

geole

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

le fsck n'est pas terminé. ll est en cours


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#13 Le 05/07/2021, à 16:55

geole

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

Pat97615 a écrit :

Avant "mdadm --assemble" ne faudrait-il pas lancer "mdadm --stop" ?

Tu as raison.
Mais comme il semble assemblé, autant faire directement

sudo mdadm    --run /dev/md3

ou

sudo mdadm  --force --run /dev/md3

Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#14 Le 05/07/2021, à 17:03

Pat97615

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

Il renvoie un message lorsque c'est terminé?

Hors ligne

#15 Le 05/07/2021, à 17:09

geole

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

Je me suis fait avoir.    Pas avec l'option N !!!!

sudo fsck -f /dev/md3

S'il y a des réparations a faire, il les proposera une par une   Sinon un exemple

a@b:~$ sudo fsck -f /dev/sdc6
fsck de util-linux 2.34
e2fsck 1.45.5 (07-Jan-2020)
Passe 1 : vérification des i-noeuds, des blocs et des tailles
Passe 2 : vérification de la structure des répertoires
Passe 3 : vérification de la connectivité des répertoires
Passe 4 : vérification des compteurs de référence
Passe 5 : vérification de l'information du sommaire de groupe
DupliHOME : 490733/7157376 fichiers (0.4% non contigus), 14247510/28573696 blocs
a@b:~$ 

Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#16 Le 05/07/2021, à 17:11

Pat97615

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

Ok, je lance sans N! Merci!

Hors ligne

#17 Le 05/07/2021, à 17:15

Pat97615

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

Retour mais fsk semble pas content! big_smile

admin@vhs-4:/$ sudo fsck -f /dev/md3
[sudo] password for admin:
fsck from util-linux 2.20.1
e2fsck 1.42.9 (4-Feb-2014)
fsck.ext2: Invalid argument while trying to open /dev/md3

The superblock could not be read or does not describe a valid ext2/ext3/ext4
filesystem.  If the device is valid and it really contains an ext2/ext3/ext4
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
    e2fsck -b 8193 <device>
 or
    e2fsck -b 32768 <device>

Hors ligne

#18 Le 05/07/2021, à 17:26

geole

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

essayons

sudo fsck -f   -b 8193 /dev/md3

ou

sudo fsck -f   -b 32768 /dev/md3

Je vais commencer à rechercher la séquence listant la totalité des valeurs possibles
Je mémorise pour un contexte hors RAID
sudo mke2fs -n -t ext4 /dev/sda1

Je ne sais pas si le RAIDS a été formaté en EXT2 ou EXT3 ou EXT4, j'espère que cela est pareil,
Attention commande très dangeureuse si  -n   est mal frappé, elle ne va pas simuler mais réellement formater donc perte des données.    Donc ne pas encore faire

sudo mkfs.ext2 -n -t ext2 /dev/md3
sudo mkfs.ext3 -n -t ext3 /dev/md3
sudo mkfs.ext4 -n -t ext4 /dev/md3

Car c'est une chose récupérable par testdisk

Dernière modification par geole (Le 05/07/2021, à 17:40)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#19 Le 05/07/2021, à 17:30

Pat97615

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

Avec mdadm run, j'obtiens la sortie suivante:

admin@vhs-4:/$ sudo mdadm --run /dev/md3
mdadm: failed to run array /dev/md3: Input/output error

Hors ligne

#20 Le 05/07/2021, à 17:31

geole

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

dmesg | tail -50

Dernière modification par geole (Le 05/07/2021, à 17:31)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#21 Le 05/07/2021, à 17:34

Pat97615

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

Retour des tentatives "fsck"

admin@vhs-4:/$ sudo fsck -f -b 8193 /dev/md3
fsck from util-linux 2.20.1
e2fsck 1.42.9 (4-Feb-2014)
fsck.ext2: Invalid argument while trying to open /dev/md3

The superblock could not be read or does not describe a valid ext2/ext3/ext4
filesystem.  If the device is valid and it really contains an ext2/ext3/ext4
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
    e2fsck -b 8193 <device>
 or
    e2fsck -b 32768 <device>

admin@vhs-4:/$ sudo fsck -f -b 32768 /dev/md3
fsck from util-linux 2.20.1
e2fsck 1.42.9 (4-Feb-2014)
fsck.ext2: Invalid argument while trying to open /dev/md3

The superblock could not be read or does not describe a valid ext2/ext3/ext4
filesystem.  If the device is valid and it really contains an ext2/ext3/ext4
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
    e2fsck -b 8193 <device>
 or
    e2fsck -b 32768 <device>

J'essaye avec e2fsck ?

Hors ligne

#22 Le 05/07/2021, à 17:45

geole

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

essaie         sans oublier sudo..... Mais cela  risque de ne rien changer

Tu vas installer testdisk ( https://doc.ubuntu-fr.org/testdisk ) et on va partir à la pêche des  superblocs

sudo apt install testdisk
sudo testdisk /dev/md3

===> Proceed
       ====> none
Cela devrait être positionné sur superblock   ===> Donc appui sur la touche entrée
Cela devrait donner une liste de ce style

superblock 0, blocksize=4096 [DupliHOME]
superblock 32768, blocksize=4096 [DupliHOME]
superblock 98304, blocksize=4096 [DupliHOME]
superblock 163840, blocksize=4096 [DupliHOME]
superblock 229376, blocksize=4096 [DupliHOME]
superblock 294912, blocksize=4096 [DupliHOME]
superblock 819200, blocksize=4096 [DupliHOME]
superblock 884736, blocksize=4096 [DupliHOME]
superblock 1605632, blocksize=4096 [DupliHOME]
superblock 2654208, blocksize=4096 [DupliHOME]

To repair the filesystem using alternate superblock, run
fsck.ext4 -p -b superblock -B blocksize device


>[  Quit  ]

Dernière modification par geole (Le 05/07/2021, à 17:48)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#23 Le 05/07/2021, à 17:53

geole

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

Un extrait du premier dmsg pour lequel  j'ai vu des erreurs de réparation de secteurs  pour md0 alors que rien n'est signalé sur les disques

un 29 10:17:32 vhs-4 kernel: [   22.140386] md/raid1:md0: active with 3 out of 3 mirrors
Jun 29 10:17:32 vhs-4 kernel: [   22.140411] md0: detected capacity change from 0 to 5000986624
Jun 29 10:17:32 vhs-4 kernel: [   22.143155]  md0: unknown partition table
Jun 29 10:17:32 vhs-4 kernel: [   22.269918] EXT4-fs (md0): couldn't mount as ext3 due to feature incompatibilities
Jun 29 10:17:32 vhs-4 kernel: [   22.270219] EXT4-fs (md0): couldn't mount as ext2 due to feature incompatibilities
Jun 29 10:17:32 vhs-4 kernel: [   22.979339] EXT4-fs (md0): recovery complete
Jun 29 10:17:32 vhs-4 kernel: [   23.000098] EXT4-fs (md0): mounted filesystem with ordered data mode. Opts: (null)
Jun 29 10:17:32 vhs-4 kernel: [   28.113028] EXT4-fs (md0): mounted filesystem with ordered data mode. Opts: (null)
Jun 29 10:17:32 vhs-4 kernel: [   40.171490] md/raid1:md0: sdc2: rescheduling sector 2231400
Jun 29 10:17:32 vhs-4 kernel: [   40.180471] md/raid1:md0: sdc2: rescheduling sector 2227408
Jun 29 10:17:32 vhs-4 kernel: [   40.189408] md/raid1:md0: sdc2: rescheduling sector 2227328
Jun 29 10:17:32 vhs-4 kernel: [   40.198267] md/raid1:md0: sdc2: rescheduling sector 2227248
Jun 29 10:17:32 vhs-4 kernel: [   40.207090] md/raid1:md0: sdc2: rescheduling sector 2226976
Jun 29 10:17:32 vhs-4 kernel: [   40.215844] md/raid1:md0: sdc2: rescheduling sector 2240912
Jun 29 10:17:32 vhs-4 kernel: [   41.340970] md/raid1:md0: redirecting sector 2231400 to other mirror: sdd2
Jun 29 10:17:32 vhs-4 kernel: [   41.958477] md/raid1:md0: redirecting sector 2227408 to other mirror: sdd2
Jun 29 10:17:32 vhs-4 kernel: [   41.981445] md/raid1:md0: redirecting sector 2227328 to other mirror: sdd2
Jun 29 10:17:32 vhs-4 kernel: [   41.986466] md/raid1:md0: redirecting sector 2227248 to other mirror: sdd2
Jun 29 10:17:32 vhs-4 kernel: [   42.001483] md/raid1:md0: redirecting sector 2226976 to other mirror: sdd2
Jun 29 10:17:32 vhs-4 kernel: [   42.015417] md/raid1:md0: redirecting sector 2240912 to other mirror: sdc2
Jun 29 10:17:32 vhs-4 kernel: [   42.741904] EXT4-fs (md0): re-mounted. Opts: (null)
Jun 29 15:16:43 vhs-4 kernel: [    0.000000] Command line: root=/dev/md0 ro quiet splash vboot=key apparmor=0
Jun 29 15:16:43 vhs-4 kernel: [    0.000000] Kernel command line: root=/dev/md0 ro quiet splash vboot=key apparmor=0
Jun 29 15:16:43 vhs-4 kernel: [   22.158329] md: md0 stopped.
Jun 29 15:16:43 vhs-4 kernel: [   22.160552] md/raid1:md0: active with 3 out of 3 mirrors
Jun 29 15:16:43 vhs-4 kernel: [   22.160581] md0: detected capacity change from 0 to 5000986624

Dernière modification par geole (Le 05/07/2021, à 17:57)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#24 Le 05/07/2021, à 17:54

Pat97615

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

La disparition de ve-hotech doit interférer avec cette installation....!?

admin@vhs-4:/$ sudo apt install testdisk
Reading package lists... Done
Building dependency tree
Reading state information... Done
The following packages were automatically installed and are no longer required:
  gcc gcc-4.8 libafpclient0 libasan0 libatomic1 libboost-program-options1.54.0
  libboost-regex1.54.0 libc-dev-bin libc6-dev libgcc-4.8-dev libglu1-mesa
  libitm1 libquadmath0 libshairport1 libtalloc-dev libtsan0 linux-libc-dev
  manpages-dev pkg-config
Use 'apt-get autoremove' to remove them.
The following NEW packages will be installed:
  testdisk
0 upgraded, 1 newly installed, 0 to remove and 0 not upgraded.
Need to get 525 kB of archives.
After this operation, 1,225 kB of additional disk space will be used.
Err http://update.ve-hotech.com/vht/update/1404/ trusty/universe testdisk amd64 6.14-2
  Could not connect to update.ve-hotech.com:80 (91.121.24.112), connection timed out
E: Failed to fetch http://update.ve-hotech.com/vht/update/1404/pool/universe/t/testdisk/testdisk_6.14-2_amd64.deb  Could not connect to update.ve-hotech.com:80 (91.121.24.112), connection timed out

E: Unable to fetch some archives, maybe run apt-get update or try with --fix-missing?

Hors ligne

#25 Le 05/07/2021, à 18:04

geole

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

C'est logique, ton logiciel est obsolète

Voir mon message 18 avant de lancer ces trois commandes

sudo mkfs.ext2 -n -t ext2 /dev/md3
sudo mkfs.ext3 -n -t ext3 /dev/md3
sudo mkfs.ext4 -n -t ext4 /dev/md3

La bonne logique voudrait que, pour ne prendre aucun risque, je te demande de dupliquer les trois disques (ou les quatre)

Dernière modification par geole (Le 05/07/2021, à 18:15)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne