#1 Le 04/07/2021, à 20:05
- Pat97615
Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Bonsoir,
Tout d’abord, merci à tous les spécialistes qui animent ce forum et résolvent bon nombre de cas hors de portée des novices, dont je suis!
Je suis confronté à un problème de Raid qui ne se monte plus, suite à des soucis sur le serveur (Ve-hotech Xtrem II): Il s'est mis à s'éteindre tout seul, rapidement, pendant les séquences de boot.
Après démontage et retrait de la carte TV, il a bien voulu rester ON mais le raid ne se monte plus et je n'ai donc plus accès aux données.
L'interface par navigateur m'indique que le disque 2 (sdb) n'est pas dans la grappe et me propose de l'ajouter: exécuter cette action mène à une erreur "Trop d'arguments".
Puis l'écran suivant montre mes 4 disques non présents dans le raid...
https://1drv.ms/u/s!AtAF9CKlzgi3whXjgn3 … I?e=4oXCcw
https://1drv.ms/u/s!AtAF9CKlzgi3whbhBBj … 3?e=BelY7l
Avec Putty, la commande "sudo lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT[" donne:
NAME SIZE FSTYPE TYPE MOUNTPOINT
sda 2.7T disk
├─sda1 486.4M swap part [SWAP]
├─sda2 4.7G linux_raid_member part
│ └─md0 4.7G ext4 raid1 /
└─sda3 2.7T linux_raid_member part
Le disque (b) = trois partitions :
SWAP 1 de 486.4M
OS 2 de 4.7G, Mais il n'est pas monté dans le RAID 1 md0
DATA 3 de 2.7T Mais il n'est pas monté dans le RAID 5 md3
sdb 2.7T disk
├─sdb1 486.4M swap part
├─sdb2 4.7G linux_raid_member part
└─sdb3 2.7T linux_raid_member part
Ce que l'on trouve avec sda est identique avec sdc et sdd. Pour résumer, seul le disque b n'est pas monté dans le raid 1 md0
et les 4 disques ne sont pas montés dans le raid 5 md3.
Il y a un sde de 3.8 Go qui est la clé de boot USB d'origine.
Étant novice en Linux et en raid je crains trop de faire des erreurs qui compliqueraient ou empêcheraient de retrouver l'accès aux données pour les sauvegarder.
Est-il automatique que le raid 5 tombe lorsqu'un des disques du raid 1 md0 est sorti?
Serait-il possible de démonter le disque b de la grappe et de relancer le raid en mode dégradé avec 3 disques sur 4?
Ensuite, remonter un disque neuf à la place du b, permettrait-il alors sa reconstruction pour retrouver mon raid 5 à 4 disques?
Bref je ne suis sûr de presque rien et je pense plus prudent de me tourner vers le forum.
Voici un lien vers un fichier qui contient les résultats de toutes les commandes de vérification lancées avec Putty:
https://1drv.ms/t/s!AtAF9CKlzgi3whRFaQkZB7VdrkcV
Si des spécialistes parmi vous ont connu un problème similaire, peut-être pourraient-ils me conseiller pour me tirer de cette situation préoccupante!?
Conscient du temps et de l'énergie nécessaire à la résolution de ce genre de problème, un grand merci pour votre aide!
Pat
Hors ligne
#2 Le 04/07/2021, à 21:37
- geole
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Bonsoir,
Je suis confronté à un problème de Raid qui ne se monte plus, suite à des soucis sur le serveur (Ve-hotech Xtrem II): Il s'est mis à s'éteindre tout seul, rapidement, pendant les séquences de boot.
Après démontage et retrait de la carte TV, il a bien voulu rester ON mais le raid ne se monte plus et je n'ai donc plus accès aux données
Bonsoir.
Ta capture d'écran montre que tu veux remonter le raids0 qui est opérationnel alors qu'à mon avis, il faut que tu choisisses le raids5 qui est cassé.
Le rapport smartctl montre 4 disques en bon état. Je ne comprends pas la raison qui empêche le démarrage. On voit que le disque SDB est passé removed sans raison évidente.
admin@vhs-4:/$ sudo mdadm --detail /dev/md3
/dev/md3:
Version : 1.0
Creation Time : Sat Jan 14 16:21:09 2012
Raid Level : raid5
Used Dev Size : -1
Raid Devices : 4
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Sat Jun 26 19:03:15 2021
State : active, degraded, Not Started
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Name : VHS-4:3
UUID : ab727cf1:4bcd8136:f183c289:e268f49f
Events : 671256
Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 3 1 active sync /dev/sda3
3 8 35 2 active sync /dev/sdc3
4 8 51 3 active sync /dev/sdd3
Peux-tu donner le retour de cette commande en copier/coller avec mise en forme.
sudo smartctl -a /dev/sdb
D'autre part, ton ubuntu est périmé.
admin@192.168.1.150's password:y90606
Welcome to Ubuntu 14.04.2 LTS (GNU/Linux 3.16.0-31-generic x86_64)
System information as of Tue Jun 29 15:16:42 CEST 2021
L'accès à la documentation du raids si je ne me trompe pas https://madovi.xyz/lib/exe/fetch.php?me … pdf#page33
Si tu court-circuite le logiciel de l'appareil, tu peux tenter cette commande
sudo mdadm --assemble --force /dev/md3 /dev/sdb3 /dev/sda3 /dev/sdc3 /dev/sdd3
Dernière modification par geole (Le 04/07/2021, à 23:30)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#3 Le 04/07/2021, à 23:47
- Pat97615
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Bonsoir geole,
Merci pour cette réponse super rapide!
En fait je ne cherche pas à remonter le raid 0. La capture d'écran montre ce que j'obtiens à l'affichage en cliquant sur ajouter ce disque (l'autre écran du raid 5 avec 3 disques en vert et le sdb à ajouter). L'interface doit mettre raid 0 par défaut car je n'ai rien choisi dans la liste déroulante et elle précise en haut "Il y a trop d'arguments".
Comme je mets mon nez dans les problèmes de raid depuis peu, j'ai un peu peur de tout, rapport au risque de perte de données.
Du coup je me pose des questions du style: si je choisis raid 5 avec ajouter les 4 disques à partir de l'interface (img 2ème écran), ne va-t-il pas y avoir une reconstruction d'un nouveau raid 5 avec suppression de mes données? Prudence de débutant qui préfère qu'un pro lui confirme si il y a ce risque ou si la reconstruction conserve les données sur le raid 5...
Résultat de la commande smartctl: (comment réalise-t-on la mise en forme adéquate?)
admin@vhs-4:/$ sudo smartctl -a /dev/sdb
[sudo] password for admin:
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.16.0-31-generic] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Western Digital Red (AF)
Device Model: WDC WD30EFRX-68EUZN0
Serial Number: WD-WCC4N0NLY38Y
LU WWN Device Id: 5 0014ee 2111a2902
Firmware Version: 82.00A82
User Capacity: 3,000,592,982,016 bytes [3.00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Rotation Rate: 5400 rpm
Device is: In smartctl database [for details use: -P show]
ATA Version is: ACS-2 (minor revision not indicated)
SATA Version is: SATA 3.0, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is: Sun Jul 4 23:37:38 2021 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: (40680) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 408) minutes.
Conveyance self-test routine
recommended polling time: ( 5) minutes.
SCT capabilities: (0x703d) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 0
3 Spin_Up_Time 0x0027 182 182 021 Pre-fail Always - 5883
4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 60
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0
9 Power_On_Hours 0x0032 090 090 000 Old_age Always - 7806
10 Spin_Retry_Count 0x0032 100 253 000 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 100 253 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 60
192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 31
193 Load_Cycle_Count 0x0032 200 200 000 Old_age Always - 311
194 Temperature_Celsius 0x0022 111 087 000 Old_age Always - 39
196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0030 100 253 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0
200 Multi_Zone_Error_Rate 0x0008 100 253 000 Old_age Offline - 0
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
No self-tests have been logged. [To run self-tests, use: smartctl -t]
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
Cool! Je viens de comprendre la mise en forme du code avec les balises du forum!
Pour mon Ubuntu, c'est celui que ve-hotech a laissé sur la clé de boot fournie avec le serveur. Après leur dépot de bilan et la fin de la maintenance, il n'y a plus eu de
mise à jour...Si j'arrive à récupérer le raid 5 et les données, j'essayerai de remonter un serveur avec un Ubuntu à jour et un matériel plus performant incluant une vraie sauvegarde.
Je vais attendre tes réponses puis tenter la commande de reconstruction du raid 5 que tu me proposes.
Ne penses-tu pas qu'il serait utile de remettre le disque b dans le md0 avant?
Merci encore pour le temps accordé à mon problème et les réponses!
Bonne nuit de Mayotte.
Pat
Hors ligne
#4 Le 05/07/2021, à 11:24
- geole
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Bonjour
En fait je ne cherche pas à remonter le raid 0. La capture d'écran montre ce que j'obtiens à l'affichage en cliquant sur ajouter ce disque (l'autre écran du raid 5 avec 3 disques en vert et le sdb à ajouter). L'interface doit mettre raid 0 par défaut car je n'ai rien choisi dans la liste déroulante et elle précise en haut "Il y a trop d'arguments".
La documentation du raids dit que le mode raids-0 est à déconseiller. Qu'elle le propose est amusant....
Je n'ai pas ce type de périphérique, mais je pense que le menu proposé devrait te permettre de choisir RAID5 avant d'ajouter le disque (ou une partition du disque).
Pour mon Ubuntu, c'est celui que ve-hotech a laissé sur la clé de boot fournie avec le serveur. Après leur dépot de bilan et la fin de la maintenance, il n'y a plus eu de mise à jour...Si j'arrive à récupérer le raid 5 et les données, j'essayerai de remonter un serveur avec un Ubuntu à jour et un matériel plus performant incluant une vraie sauvegarde.
Malheureusement, on ne pourra pas leur demander conseil sur l'utilisation de leur logiciel.
j'en déduis que tu n'as pas envisagé la panne matérielle de cet appareil et que tu ne disposes pas de double de tes données.
On devrait trouver une solution pour migrer en 20.04 Mais cela n'est pas prioritaire.
Cool! Je viens de comprendre la mise en forme du code avec les balises du forum!
Je confirme que le disque SDB est en parfait état, qu'il a 7806 heures de fonctionnement, qu'il est donc usé à 10% environ et qu'il n'a jamais rencontré des erreurs de lectures. ( option petit a au lieu de grand A ).
Ayant plus regardé les messages dmsg, pourrais-tu aussi donner ces retours
sudo smartctl -a /dev/sda
sudo smartctl -a /dev/sdc
sudo smartctl -a /dev/sdd
Ne penses-tu pas qu'il serait utile de remettre le disque b dans le md0 avant?
Pourquoi pas.... Cela ferait une répétition sans risque
sudo mdadm --assemble --force /dev/md0 /dev/sdb2 /dev/sda2 /dev/sdc2 /dev/sdd2 #### ???????
Le problème est que md0 est identifié comme étant un RAID1 . Il ne devrait donc avoir que deux disques et pas quatre!!!!!
Je n'ai pas encore compris comment tu as pu le créer quatre ans plus tard avec les outils de ce fabricant
sudo mdadm --detail /dev/md3
/dev/md3:
Version : 1.0
Creation Time : Sat Jan 14 16:21:09 2012
Raid Level : raid5
sudo mdadm --detail /dev/md0
/dev/md0:
Version : 1.0
Creation Time : Sat Feb 27 12:09:44 2016
Raid Level : raid1
Peux-tu faire ces commandes qui vont permettre de visualiser toutes les partitions de tes disques.
sudo parted /dev/sda unit MiB print free
sudo parted /dev/sdb unit MiB print free
sudo parted /dev/sdc unit MiB print free
sudo parted /dev/sdd unit MiB print free
Peux-tu faire cette commande ( j'espère qu'elle existe en version 14.04)
journalctl -b | grep md0
journalctl -b | grep md3
D'autre part, redonne le retour complet de cette commande afin d'avoir tout au même endroit.
sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
Tu peux tenter cette commande qui ne réinitialise pas le RAID. Elle se contente de le monter.
sudo mdadm --assemble --force --run /dev/md3 /dev/sdb3 /dev/sda3 /dev/sdc3 /dev/sdd3
et si cela se passe bien
cat /proc/mdstat
sudo fsck /dev/md3
sudo mkdir /media/RAID3
sudo mount /dev/md3 /media/RAID3
sudo ls -Rls /media/RAID3
Tu peux aussi tenter une réparation
sudo mdadm --manage /dev/md3 --set-faulty /dev/sdb3
Attendre 15 secondes
sudo mdadm --manage /dev/md3 --remove /dev/sdb3
Attendre 15 secondes
sudo mdadm --manage /dev/md3 --add /dev/sdb3
Je remets la même partition car le disque est physiquement OK et attendre que cela se reconstruise.
watch -n 60 cat /proc/mdstat
D'autre part, tu peux lire ce document ( https://doc.ubuntu-fr.org/raid_logiciel ) en ayant à l'esprit que la version 20.04 c'est 30 Go de place disque et pas 4,7 go.
Dernière modification par geole (Le 05/07/2021, à 11:28)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#5 Le 05/07/2021, à 16:09
- Pat97615
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Bonjour,
Oui 2 disques, le a et le b sont récents (2019) et peu d'heures de vol, alors que le c et le d datent de 2012!
Pour les commandes:
sudo
admin@vhs-4:/$ sudo smartctl -a /dev/sda
[sudo] password for admin:
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.16.0-31-generic] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Western Digital Red (AF)
Device Model: WDC WD30EFRX-68EUZN0
Serial Number: WD-WCC4N0NLY2PK
LU WWN Device Id: 5 0014ee 2666f6679
Firmware Version: 82.00A82
User Capacity: 3,000,592,982,016 bytes [3.00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Rotation Rate: 5400 rpm
Device is: In smartctl database [for details use: -P show]
ATA Version is: ACS-2 (minor revision not indicated)
SATA Version is: SATA 3.0, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is: Mon Jul 5 14:25:13 2021 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: (40680) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 408) minutes.
Conveyance self-test routine
recommended polling time: ( 5) minutes.
SCT capabilities: (0x703d) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 0
3 Spin_Up_Time 0x0027 181 180 021 Pre-fail Always - 5933
4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 62
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0
9 Power_On_Hours 0x0032 090 090 000 Old_age Always - 7877
10 Spin_Retry_Count 0x0032 100 253 000 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 100 253 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 62
192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 30
193 Load_Cycle_Count 0x0032 200 200 000 Old_age Always - 248
194 Temperature_Celsius 0x0022 108 082 000 Old_age Always - 42
196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0030 100 253 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0
200 Multi_Zone_Error_Rate 0x0008 100 253 000 Old_age Offline - 0
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
No self-tests have been logged. [To run self-tests, use: smartctl -t]
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
admin@vhs-4:/$ sudo smartctl -a /dev/sdc
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.16.0-31-generic] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Western Digital Caviar Green (AF, SATA 6Gb/s)
Device Model: WDC WD30EZRX-00MMMB0
Serial Number: WD-WCAWZ1652173
LU WWN Device Id: 5 0014ee 2066aefb4
Firmware Version: 80.00A80
User Capacity: 3,000,592,982,016 bytes [3.00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Device is: In smartctl database [for details use: -P show]
ATA Version is: ATA8-ACS (minor revision not indicated)
SATA Version is: SATA 3.0, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is: Mon Jul 5 14:31:45 2021 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x82) Offline data collection activity
was completed without error.
Auto Offline Data Collection: Enabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: (51660) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 496) minutes.
Conveyance self-test routine
recommended polling time: ( 5) minutes.
SCT capabilities: (0x3035) SCT Status supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 0
3 Spin_Up_Time 0x0027 148 144 021 Pre-fail Always - 9566
4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 559
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0
9 Power_On_Hours 0x0032 043 043 000 Old_age Always - 42016
10 Spin_Retry_Count 0x0032 100 100 000 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 557
192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 220
193 Load_Cycle_Count 0x0032 001 001 000 Old_age Always - 2913218
194 Temperature_Celsius 0x0022 105 075 000 Old_age Always - 47
196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0030 200 200 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 93
200 Multi_Zone_Error_Rate 0x0008 200 200 000 Old_age Offline - 0
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
No self-tests have been logged. [To run self-tests, use: smartctl -t]
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
admin@vhs-4:/$ sudo -a /dev/sdd
usage: sudo -h | -K | -k | -V
usage: sudo -v [-AknS] [-g group] [-h host] [-p prompt] [-u user]
usage: sudo -l [-AknS] [-g group] [-h host] [-p prompt] [-U user] [-u user] [command]
usage: sudo [-AbEHknPS] [-r role] [-t type] [-C num] [-g group] [-h host] [-p prompt] [-u
user] [VAR=value] [-i|-s] [<command>]
usage: sudo -e [-AknS] [-r role] [-t type] [-C num] [-g group] [-h host] [-p prompt] [-u
user] file ...
admin@vhs-4:/$ sudo smartctl -a /dev/sdd
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.16.0-31-generic] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Western Digital Caviar Green (AF, SATA 6Gb/s)
Device Model: WDC WD30EZRX-00MMMB0
Serial Number: WD-WCAWZ1565484
LU WWN Device Id: 5 0014ee 25bb53093
Firmware Version: 80.00A80
User Capacity: 3,000,592,982,016 bytes [3.00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Device is: In smartctl database [for details use: -P show]
ATA Version is: ATA8-ACS (minor revision not indicated)
SATA Version is: SATA 3.0, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is: Mon Jul 5 14:34:23 2021 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x84) Offline data collection activity
was suspended by an interrupting command from host.
Auto Offline Data Collection: Enabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: (51900) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 498) minutes.
Conveyance self-test routine
recommended polling time: ( 5) minutes.
SCT capabilities: (0x3035) SCT Status supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 0
3 Spin_Up_Time 0x0027 143 142 021 Pre-fail Always - 9841
4 Start_Stop_Count 0x0032 099 099 000 Old_age Always - 1324
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0
9 Power_On_Hours 0x0032 052 052 000 Old_age Always - 35186
10 Spin_Retry_Count 0x0032 100 100 000 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 099 099 000 Old_age Always - 1300
192 Power-Off_Retract_Count 0x0032 199 199 000 Old_age Always - 840
193 Load_Cycle_Count 0x0032 001 001 000 Old_age Always - 2428919
194 Temperature_Celsius 0x0022 102 079 000 Old_age Always - 50
196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0030 200 200 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0
200 Multi_Zone_Error_Rate 0x0008 200 200 000 Old_age Offline - 0
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
No self-tests have been logged. [To run self-tests, use: smartctl -t]
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
admin@vhs-4:/$ sudo parted /dev/sda unit Mib print free
Model: ATA WDC WD30EFRX-68E (scsi)
Disk /dev/sda: 2861588MiB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Number Start End Size File system Name Flags
0.02MiB 0.02MiB 0.00MiB Free Space
1 0.02MiB 486MiB 486MiB linux-swap(v1) primary raid
2 486MiB 5256MiB 4769MiB ext4 primary boot
3 5256MiB 2861588MiB 2856333MiB primary raid
admin@vhs-4:/$ sudo parted /dev/sdb unit Mib print free
Model: ATA WDC WD30EFRX-68E (scsi)
Disk /dev/sdb: 2861588MiB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Number Start End Size File system Name Flags
0.02MiB 0.02MiB 0.00MiB Free Space
1 0.02MiB 486MiB 486MiB linux-swap(v1) primary raid
2 486MiB 5256MiB 4769MiB ext4 primary boot
3 5256MiB 2861588MiB 2856333MiB primary raid
admin@vhs-4:/$ sudo parted /dev/sdc unit Mib print free
Model: ATA WDC WD30EZRX-00M (scsi)
Disk /dev/sdc: 2861588MiB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Number Start End Size File system Name Flags
0.02MiB 0.02MiB 0.00MiB Free Space
1 0.02MiB 486MiB 486MiB linux-swap(v1) primary raid
2 486MiB 5256MiB 4769MiB ext4 primary boot
3 5256MiB 2861588MiB 2856333MiB primary raid
admin@vhs-4:/$ sudo parted /dev/sdd unit Mib print free
Model: ATA WDC WD30EZRX-00M (scsi)
Disk /dev/sdd: 2861588MiB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Number Start End Size File system Name Flags
0.02MiB 0.02MiB 0.00MiB Free Space
1 0.02MiB 486MiB 486MiB linux-swap(v1) primary raid
2 486MiB 5256MiB 4769MiB ext4 primary boot
3 5256MiB 2861588MiB 2856333MiB primary raid
admin@vhs-4:/$ sudo journalct1 -b | grep md0
sudo: journalct1: command not found
admin@vhs-4:/$ sudo journal ctl -b | grep md0
sudo: journal: command not found
admin@vhs-4:/$ sudo lsbk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
sudo: lsbk: command not found
admin@vhs-4:/$ sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
[sudo] password for admin:
Sorry, try again.
[sudo] password for admin:
SIZE NAME FSTYPE LABEL MOUNTPOINT
2.7T sda
486.4M ├─sda1 swap [SWAP]
4.7G ├─sda2 linux_raid_member system:upgrade
4.7G │ └─md0 ext4 6.1.4 /
2.7T └─sda3 linux_raid_member VHS-4:3
2.7T sdb
486.4M ├─sdb1 swap
4.7G ├─sdb2 linux_raid_member system:upgrade
2.7T └─sdb3 linux_raid_member VHS-4:3
2.7T sdc
486.4M ├─sdc1 swap [SWAP]
4.7G ├─sdc2 linux_raid_member system:upgrade
4.7G │ └─md0 ext4 6.1.4 /
2.7T └─sdc3 linux_raid_member VHS-4:3
2.7T sdd
486.4M ├─sdd1 swap [SWAP]
4.7G ├─sdd2 linux_raid_member system:upgrade
4.7G │ └─md0 ext4 6.1.4 /
2.7T └─sdd3 linux_raid_member VHS-4:3
3.8G sde
3.8G └─sde1
Voilà pour les commandes. Comme tu le supposais , "journalctl" a renvoyé "command not found".
Je vais maintenant tenter de lancer les commandes que tu m'as conseillées et je te fais un retour...
Merci pour tout ça!
Pat
Hors ligne
#6 Le 05/07/2021, à 16:18
- Pat97615
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
La commande pour remonter le raid donne:
admin@vhs-4:/$ sudo mdadm --assemble --force --run /dev/md3 /dev/sdb3 /dev/sda3 /dev/sdc3 /dev/sdd3
mdadm: /dev/sda3 is busy - skipping
mdadm: /dev/sdc3 is busy - skipping
mdadm: /dev/sdd3 is busy - skipping
mdadm: /dev/md3 is already in use.
Hors ligne
#7 Le 05/07/2021, à 16:24
- Pat97615
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Pour le raid 0, même chose:
admin@vhs-4:/$ sudo mdadm --assemble --force /dev/md0 /dev/sdb2 /dev/sda2 /dev/sdc2 /dev/sdd2 #### ???????
mdadm: /dev/sda2 is busy - skipping
mdadm: /dev/sdc2 is busy - skipping
mdadm: /dev/sdd2 is busy - skipping
mdadm: /dev/md0 is already in use.
Hors ligne
#8 Le 05/07/2021, à 16:35
- geole
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Tente quand même cette commande qui simulera une réparation
sudo fsck -N /dev/md3
NOTA; J'ai vu que tes quatre disques sont découpés à l'identique
Une partition de 486 MiB une autre de 4 969 MiB et le tout reste pour une taille de 2 856 333 MiB
L'utilisation des disques est respectivement de 7877, 7806, 42016 et 35186 heures. Aucun n'a signalé d'erreurs de lecture écriture
Dernière modification par geole (Le 05/07/2021, à 16:49)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#9 Le 05/07/2021, à 16:38
- Pat97615
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Les commandes ont été lancées à partir de Putty. Sinon, voici l'écran actuel du moniteur branché au serveur...
Hors ligne
#10 Le 05/07/2021, à 16:46
- Pat97615
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Avant "mdadm --assemble" ne faudrait-il pas lancer "mdadm --stop" ?
Ok je lance fsck
Hors ligne
#11 Le 05/07/2021, à 16:48
- Pat97615
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Retour de "fsck":
admin@vhs-4:/$ sudo fsck -N /dev/md3
[sudo] password for admin:
fsck from util-linux 2.20.1
[/sbin/fsck.ext2 (1) -- /dev/md3] fsck.ext2 /dev/md3
Hors ligne
#12 Le 05/07/2021, à 16:51
- geole
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
le fsck n'est pas terminé. ll est en cours
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#13 Le 05/07/2021, à 16:55
- geole
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Avant "mdadm --assemble" ne faudrait-il pas lancer "mdadm --stop" ?
Tu as raison.
Mais comme il semble assemblé, autant faire directement
sudo mdadm --run /dev/md3
ou
sudo mdadm --force --run /dev/md3
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#14 Le 05/07/2021, à 17:03
- Pat97615
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Il renvoie un message lorsque c'est terminé?
Hors ligne
#15 Le 05/07/2021, à 17:09
- geole
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Je me suis fait avoir. Pas avec l'option N !!!!
sudo fsck -f /dev/md3
S'il y a des réparations a faire, il les proposera une par une Sinon un exemple
a@b:~$ sudo fsck -f /dev/sdc6
fsck de util-linux 2.34
e2fsck 1.45.5 (07-Jan-2020)
Passe 1 : vérification des i-noeuds, des blocs et des tailles
Passe 2 : vérification de la structure des répertoires
Passe 3 : vérification de la connectivité des répertoires
Passe 4 : vérification des compteurs de référence
Passe 5 : vérification de l'information du sommaire de groupe
DupliHOME : 490733/7157376 fichiers (0.4% non contigus), 14247510/28573696 blocs
a@b:~$
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#16 Le 05/07/2021, à 17:11
- Pat97615
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Ok, je lance sans N! Merci!
Hors ligne
#17 Le 05/07/2021, à 17:15
- Pat97615
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Retour mais fsk semble pas content!
admin@vhs-4:/$ sudo fsck -f /dev/md3
[sudo] password for admin:
fsck from util-linux 2.20.1
e2fsck 1.42.9 (4-Feb-2014)
fsck.ext2: Invalid argument while trying to open /dev/md3
The superblock could not be read or does not describe a valid ext2/ext3/ext4
filesystem. If the device is valid and it really contains an ext2/ext3/ext4
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
e2fsck -b 8193 <device>
or
e2fsck -b 32768 <device>
Hors ligne
#18 Le 05/07/2021, à 17:26
- geole
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
essayons
sudo fsck -f -b 8193 /dev/md3
ou
sudo fsck -f -b 32768 /dev/md3
Je vais commencer à rechercher la séquence listant la totalité des valeurs possibles
Je mémorise pour un contexte hors RAID
sudo mke2fs -n -t ext4 /dev/sda1
Je ne sais pas si le RAIDS a été formaté en EXT2 ou EXT3 ou EXT4, j'espère que cela est pareil,
Attention commande très dangeureuse si -n est mal frappé, elle ne va pas simuler mais réellement formater donc perte des données. Donc ne pas encore faire
sudo mkfs.ext2 -n -t ext2 /dev/md3
sudo mkfs.ext3 -n -t ext3 /dev/md3
sudo mkfs.ext4 -n -t ext4 /dev/md3
Car c'est une chose récupérable par testdisk
Dernière modification par geole (Le 05/07/2021, à 17:40)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#19 Le 05/07/2021, à 17:30
- Pat97615
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Avec mdadm run, j'obtiens la sortie suivante:
admin@vhs-4:/$ sudo mdadm --run /dev/md3
mdadm: failed to run array /dev/md3: Input/output error
Hors ligne
#20 Le 05/07/2021, à 17:31
- geole
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
dmesg | tail -50
Dernière modification par geole (Le 05/07/2021, à 17:31)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#21 Le 05/07/2021, à 17:34
- Pat97615
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Retour des tentatives "fsck"
admin@vhs-4:/$ sudo fsck -f -b 8193 /dev/md3
fsck from util-linux 2.20.1
e2fsck 1.42.9 (4-Feb-2014)
fsck.ext2: Invalid argument while trying to open /dev/md3
The superblock could not be read or does not describe a valid ext2/ext3/ext4
filesystem. If the device is valid and it really contains an ext2/ext3/ext4
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
e2fsck -b 8193 <device>
or
e2fsck -b 32768 <device>
admin@vhs-4:/$ sudo fsck -f -b 32768 /dev/md3
fsck from util-linux 2.20.1
e2fsck 1.42.9 (4-Feb-2014)
fsck.ext2: Invalid argument while trying to open /dev/md3
The superblock could not be read or does not describe a valid ext2/ext3/ext4
filesystem. If the device is valid and it really contains an ext2/ext3/ext4
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
e2fsck -b 8193 <device>
or
e2fsck -b 32768 <device>
J'essaye avec e2fsck ?
Hors ligne
#22 Le 05/07/2021, à 17:45
- geole
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
essaie sans oublier sudo..... Mais cela risque de ne rien changer
Tu vas installer testdisk ( https://doc.ubuntu-fr.org/testdisk ) et on va partir à la pêche des superblocs
sudo apt install testdisk
sudo testdisk /dev/md3
===> Proceed
====> none
Cela devrait être positionné sur superblock ===> Donc appui sur la touche entrée
Cela devrait donner une liste de ce style
superblock 0, blocksize=4096 [DupliHOME]
superblock 32768, blocksize=4096 [DupliHOME]
superblock 98304, blocksize=4096 [DupliHOME]
superblock 163840, blocksize=4096 [DupliHOME]
superblock 229376, blocksize=4096 [DupliHOME]
superblock 294912, blocksize=4096 [DupliHOME]
superblock 819200, blocksize=4096 [DupliHOME]
superblock 884736, blocksize=4096 [DupliHOME]
superblock 1605632, blocksize=4096 [DupliHOME]
superblock 2654208, blocksize=4096 [DupliHOME]
To repair the filesystem using alternate superblock, run
fsck.ext4 -p -b superblock -B blocksize device
>[ Quit ]
Dernière modification par geole (Le 05/07/2021, à 17:48)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#23 Le 05/07/2021, à 17:53
- geole
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Un extrait du premier dmsg pour lequel j'ai vu des erreurs de réparation de secteurs pour md0 alors que rien n'est signalé sur les disques
un 29 10:17:32 vhs-4 kernel: [ 22.140386] md/raid1:md0: active with 3 out of 3 mirrors
Jun 29 10:17:32 vhs-4 kernel: [ 22.140411] md0: detected capacity change from 0 to 5000986624
Jun 29 10:17:32 vhs-4 kernel: [ 22.143155] md0: unknown partition table
Jun 29 10:17:32 vhs-4 kernel: [ 22.269918] EXT4-fs (md0): couldn't mount as ext3 due to feature incompatibilities
Jun 29 10:17:32 vhs-4 kernel: [ 22.270219] EXT4-fs (md0): couldn't mount as ext2 due to feature incompatibilities
Jun 29 10:17:32 vhs-4 kernel: [ 22.979339] EXT4-fs (md0): recovery complete
Jun 29 10:17:32 vhs-4 kernel: [ 23.000098] EXT4-fs (md0): mounted filesystem with ordered data mode. Opts: (null)
Jun 29 10:17:32 vhs-4 kernel: [ 28.113028] EXT4-fs (md0): mounted filesystem with ordered data mode. Opts: (null)
Jun 29 10:17:32 vhs-4 kernel: [ 40.171490] md/raid1:md0: sdc2: rescheduling sector 2231400
Jun 29 10:17:32 vhs-4 kernel: [ 40.180471] md/raid1:md0: sdc2: rescheduling sector 2227408
Jun 29 10:17:32 vhs-4 kernel: [ 40.189408] md/raid1:md0: sdc2: rescheduling sector 2227328
Jun 29 10:17:32 vhs-4 kernel: [ 40.198267] md/raid1:md0: sdc2: rescheduling sector 2227248
Jun 29 10:17:32 vhs-4 kernel: [ 40.207090] md/raid1:md0: sdc2: rescheduling sector 2226976
Jun 29 10:17:32 vhs-4 kernel: [ 40.215844] md/raid1:md0: sdc2: rescheduling sector 2240912
Jun 29 10:17:32 vhs-4 kernel: [ 41.340970] md/raid1:md0: redirecting sector 2231400 to other mirror: sdd2
Jun 29 10:17:32 vhs-4 kernel: [ 41.958477] md/raid1:md0: redirecting sector 2227408 to other mirror: sdd2
Jun 29 10:17:32 vhs-4 kernel: [ 41.981445] md/raid1:md0: redirecting sector 2227328 to other mirror: sdd2
Jun 29 10:17:32 vhs-4 kernel: [ 41.986466] md/raid1:md0: redirecting sector 2227248 to other mirror: sdd2
Jun 29 10:17:32 vhs-4 kernel: [ 42.001483] md/raid1:md0: redirecting sector 2226976 to other mirror: sdd2
Jun 29 10:17:32 vhs-4 kernel: [ 42.015417] md/raid1:md0: redirecting sector 2240912 to other mirror: sdc2
Jun 29 10:17:32 vhs-4 kernel: [ 42.741904] EXT4-fs (md0): re-mounted. Opts: (null)
Jun 29 15:16:43 vhs-4 kernel: [ 0.000000] Command line: root=/dev/md0 ro quiet splash vboot=key apparmor=0
Jun 29 15:16:43 vhs-4 kernel: [ 0.000000] Kernel command line: root=/dev/md0 ro quiet splash vboot=key apparmor=0
Jun 29 15:16:43 vhs-4 kernel: [ 22.158329] md: md0 stopped.
Jun 29 15:16:43 vhs-4 kernel: [ 22.160552] md/raid1:md0: active with 3 out of 3 mirrors
Jun 29 15:16:43 vhs-4 kernel: [ 22.160581] md0: detected capacity change from 0 to 5000986624
Dernière modification par geole (Le 05/07/2021, à 17:57)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#24 Le 05/07/2021, à 17:54
- Pat97615
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
La disparition de ve-hotech doit interférer avec cette installation....!?
admin@vhs-4:/$ sudo apt install testdisk
Reading package lists... Done
Building dependency tree
Reading state information... Done
The following packages were automatically installed and are no longer required:
gcc gcc-4.8 libafpclient0 libasan0 libatomic1 libboost-program-options1.54.0
libboost-regex1.54.0 libc-dev-bin libc6-dev libgcc-4.8-dev libglu1-mesa
libitm1 libquadmath0 libshairport1 libtalloc-dev libtsan0 linux-libc-dev
manpages-dev pkg-config
Use 'apt-get autoremove' to remove them.
The following NEW packages will be installed:
testdisk
0 upgraded, 1 newly installed, 0 to remove and 0 not upgraded.
Need to get 525 kB of archives.
After this operation, 1,225 kB of additional disk space will be used.
Err http://update.ve-hotech.com/vht/update/1404/ trusty/universe testdisk amd64 6.14-2
Could not connect to update.ve-hotech.com:80 (91.121.24.112), connection timed out
E: Failed to fetch http://update.ve-hotech.com/vht/update/1404/pool/universe/t/testdisk/testdisk_6.14-2_amd64.deb Could not connect to update.ve-hotech.com:80 (91.121.24.112), connection timed out
E: Unable to fetch some archives, maybe run apt-get update or try with --fix-missing?
Hors ligne
#25 Le 05/07/2021, à 18:04
- geole
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
C'est logique, ton logiciel est obsolète
Voir mon message 18 avant de lancer ces trois commandes
sudo mkfs.ext2 -n -t ext2 /dev/md3
sudo mkfs.ext3 -n -t ext3 /dev/md3
sudo mkfs.ext4 -n -t ext4 /dev/md3
La bonne logique voudrait que, pour ne prendre aucun risque, je te demande de dupliquer les trois disques (ou les quatre)
Dernière modification par geole (Le 05/07/2021, à 18:15)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne