Contenu | Rechercher | Menus

Annonce

Si vous avez des soucis pour rester connecté, déconnectez-vous puis reconnectez-vous depuis ce lien en cochant la case
Me connecter automatiquement lors de mes prochaines visites.

À propos de l'équipe du forum.

#26 Le 05/07/2021, à 18:11

Pat97615

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

Pour info au cas où...et parce que je suis débutant en Linux, j'ai effectué les manips suivantes sur mon serveur.

Shutdown et retrait du disque N°2 (en bas à gauche) puis remplacement par un neuf pour confirmer que cette
position est bien la b et contrôle avec smartctl -A /dev/sdb du power on hours qui a confirmé la position, compte tenu du peu d'heures constaté.

Idem pour le disque c.

Ensuite remise des disques d'origine sur lesquels nous travaillons actuellement.

Des fois que certaines commandes renvoient des infos des disques neufs. Mais il y a peu de chance car je pense avoir
exécuté les commandes transmises sur le site après ces manips...

Hors ligne

#27 Le 05/07/2021, à 18:22

geole

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

Merci pour ces explications complémentaires.    La manipulation me semble sans lien avec  ce qui est actuellement rencontré.
     Il me semble avoir vu dans une de tes photos que les références des disques étaient visibles et sont obtenues avec l'option  petit a et pas grand A de la commande smartctl

admin@vhs-4:/$ sudo smartctl -a /dev/sda
=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Red (AF)
Device Model:     WDC WD30EFRX-68EUZN0
Serial Number:    WD-WCC4N0NLY2PK

sudo smartctl -a /dev/sdc
=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Caviar Green (AF, SATA 6Gb/s)
Device Model:     WDC WD30EZRX-00MMMB0
Serial Number:    WD-WCAWZ1652173

sudo smartctl -a /dev/sdd
=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Caviar Green (AF, SATA 6Gb/s)
Device Model:     WDC WD30EZRX-00MMMB0
Serial Number:    WD-WCAWZ1565484

Pense à donner ce retour

dmesg | tail -100

Dernière modification par geole (Le 05/07/2021, à 18:30)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#28 Le 05/07/2021, à 18:24

Pat97615

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

Messages 18 et 25 bien lus! yikes
Quelques infos sur mon serveur qui j'espère aideront:

VHS - Organisation du RAID

Sur le NAS VHS «original» avec le firmware Ve-Hotech, l'organisation de l'espace de stockage sur les disques a les caractéristiques suivantes:

    le firmware/OS est distribué sur l'ensemble des disques dans un array md0 en RAID 1
    les data occupent un array md3 dont le type RAID est choisi à l'installation
    Ainsi chaque disque dispose de 3 partitions:
        sdX1 est réservée au swap de la mémoire du système
        sdX2 est une partition en FS ext4, membre du RAID 1 système md0
        sdX3 est une partition en FS ext4, membre du RAID X data md3

L'image ci-dessous illustre l'organisation pour 4 disques de 4To chacun avec les datas en RAID 5, sde correspond ici à la clé / au dongle (toujours branché(e) si interne): 

L'image en question:
https://1drv.ms/u/s!AtAF9CKlzgi3whh9pZW … Q?e=Ta3uVH

Si ça peut préciser les systèmes de fichier pour éviter un éventuel formatage risqué big_smile

Hors ligne

#29 Le 05/07/2021, à 18:27

Pat97615

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

admin@vhs-4:/$ sudo dmesg | tail-100

[1]+  Stopped                 sudo dmesg | tail-100
admin@vhs-4:/$ tail-100: command not found

Hors ligne

#30 Le 05/07/2021, à 18:30

Pat97615

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

Mieux avec l'espace entre tail et -100!

admin@vhs-4:/$ sudo dmesg | tail -100
[sudo] password for admin:
[   36.319081] tg3 0000:03:00.0 eth0: Link is down
[   36.451128] tg3 0000:04:00.0 eth1: Link is down
[   39.452276] tg3 0000:04:00.0 eth1: Link is up at 1000 Mbps, full duplex
[   39.452280] tg3 0000:04:00.0 eth1: Flow control is off for TX and off for RX
[   39.531295] bonding: bond0: link status definitely up for interface eth1, 1000 Mbps full duplex
[   39.531299] bonding: bond0: making interface eth1 the new active one
[   39.531301] device eth1 entered promiscuous mode
[   39.531350] bonding: bond0: first active interface up!
[   39.531356] IPv6: ADDRCONF(NETDEV_CHANGE): bond0: link becomes ready
[   39.531383] br0: port 1(bond0) entered forwarding state
[   39.531386] br0: port 1(bond0) entered forwarding state
[   39.531402] IPv6: ADDRCONF(NETDEV_CHANGE): br0: link becomes ready
[   40.320610] tg3 0000:03:00.0 eth0: Link is up at 1000 Mbps, full duplex
[   40.320614] tg3 0000:03:00.0 eth0: Flow control is off for TX and off for RX
[   40.331606] bonding: bond0: link status definitely up for interface eth0, 1000 Mbps full duplex
[   41.530353] init: vht/led-blink (lan) main process (2021) killed by TERM signal
[   42.780800] hid-multitouch 0003:1B1C:1B6D.0003: usb_submit_urb(ctrl) failed: -1
[   42.783546] hid-multitouch 0003:1B1C:1B6D.0003: timeout initializing reports
[   42.783649] input: CORSAIR CORSAIR K83 Wireless USB Receiver UNKNOWN as /devices/pci0000:00/0000:00:04.0/0000:02:00.0/usb8/8-1/8-1:1.2/0003:1B1C:1B6D.0003/input/input14
[   42.783861] hid-multitouch 0003:1B1C:1B6D.0003: input,hiddev0,hidraw2: USB HID v1.11 Gamepad [CORSAIR CORSAIR K83 Wireless USB Receiver] on usb-0000:02:00.0-1/input2
[   48.566805] br0: port 1(bond0) entered forwarding state
[   76.145138] init: vht/led-blink (lan) main process (2045) killed by TERM signal
[   76.334660] init: avahi-cups-reload main process (4048) terminated with status 1
[   76.455865] nf_conntrack: automatic helper assignment is deprecated and it will be removed soon. Use the iptables CT target to attach helpers instead.
[   76.499333] init: vht/discovery main process (4063) terminated with status 2
[   76.538424] init: plymouth-upstart-bridge main process ended, respawning
[   76.545232] init: plymouth-upstart-bridge main process (4112) terminated with status 1
[   76.545242] init: plymouth-upstart-bridge main process ended, respawning
[   79.303665] md: md3 stopped.
[   79.304461] md: bind<sdb3>
[   79.304738] md: bind<sdc3>
[   79.305396] md: bind<sdd3>
[   79.305537] md: bind<sda3>
[   79.305555] md: kicking non-fresh sdb3 from array!
[   79.305559] md: unbind<sdb3>
[   79.322854] md: export_rdev(sdb3)
[   79.323897] md/raid:md3: not clean -- starting background reconstruction
[   79.323908] md/raid:md3: device sda3 operational as raid disk 1
[   79.323910] md/raid:md3: device sdd3 operational as raid disk 3
[   79.323912] md/raid:md3: device sdc3 operational as raid disk 2
[   79.324299] md/raid:md3: allocated 0kB
[   79.324548] md/raid:md3: cannot start dirty degraded array.
[   79.324641] RAID conf printout:
[   79.324643]  --- level:5 rd:4 wd:3
[   79.324645]  disk 1, o:1, dev:sda3
[   79.324646]  disk 2, o:1, dev:sdc3
[   79.324647]  disk 3, o:1, dev:sdd3
[   79.324930] md/raid:md3: failed to run raid set.
[   79.324993] md: pers->run() failed ...
[   79.452721] md/raid:md3: not clean -- starting background reconstruction
[   79.452734] md/raid:md3: device sda3 operational as raid disk 1
[   79.452736] md/raid:md3: device sdd3 operational as raid disk 3
[   79.452738] md/raid:md3: device sdc3 operational as raid disk 2
[   79.453072] md/raid:md3: allocated 0kB
[   79.453106] md/raid:md3: cannot start dirty degraded array.
[   79.453195] RAID conf printout:
[   79.453197]  --- level:5 rd:4 wd:3
[   79.453198]  disk 1, o:1, dev:sda3
[   79.453200]  disk 2, o:1, dev:sdc3
[   79.453201]  disk 3, o:1, dev:sdd3
[   79.453376] md/raid:md3: failed to run raid set.
[   79.453439] md: pers->run() failed ...
[   79.524944] Adding 498024k swap on /dev/sda1.  Priority:-1 extents:1 across:498024k FS
[   79.535051] Adding 498024k swap on /dev/sdc1.  Priority:-2 extents:1 across:498024k FS
[   79.560707] Adding 498024k swap on /dev/sdd1.  Priority:-3 extents:1 across:498024k FS
[   79.787647] init: update-setup-service main process (5303) killed by TERM signal
[  200.784193] md: export_rdev(sdc2)
[  200.837808] md: bind<sdc2>
[  200.973571] RAID1 conf printout:
[  200.973580]  --- wd:2 rd:2
[  200.973588]  disk 0, wo:0, o:1, dev:sdd2
[  200.973593]  disk 1, wo:0, o:1, dev:sda2
[  201.051416] RAID1 conf printout:
[  201.051420]  --- wd:2 rd:3
[  201.051424]  disk 0, wo:0, o:1, dev:sdd2
[  201.051426]  disk 1, wo:0, o:1, dev:sda2
[  201.051428]  disk 2, wo:1, o:1, dev:sdc2
[  201.051497] md: recovery of RAID array md0
[  201.051499] md: minimum _guaranteed_  speed: 50000 KB/sec/disk.
[  201.051501] md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for recovery.
[  201.051506] md: using 128k window, over a total of 4883776k.
[  249.265995] md: md0: recovery done.
[  249.320521] RAID1 conf printout:
[  249.320530]  --- wd:3 rd:3
[  249.320537]  disk 0, wo:0, o:1, dev:sdd2
[  249.320542]  disk 1, wo:0, o:1, dev:sda2
[  249.320547]  disk 2, wo:0, o:1, dev:sdc2
[100796.359952] md/raid:md3: not clean -- starting background reconstruction
[100796.359984] md/raid:md3: device sda3 operational as raid disk 1
[100796.359990] md/raid:md3: device sdd3 operational as raid disk 3
[100796.359995] md/raid:md3: device sdc3 operational as raid disk 2
[100796.361013] md/raid:md3: allocated 0kB
[100796.361124] md/raid:md3: cannot start dirty degraded array.
[100796.361266] RAID conf printout:
[100796.361272]  --- level:5 rd:4 wd:3
[100796.361278]  disk 1, o:1, dev:sda3
[100796.361283]  disk 2, o:1, dev:sdc3
[100796.361286]  disk 3, o:1, dev:sdd3
[100796.362121] md/raid:md3: failed to run raid set.
[100796.362202] md: pers->run() failed ...

Hors ligne

#31 Le 05/07/2021, à 18:38

geole

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

geole a écrit :

Voir mon message 18 avant de lancer ces trois commandes

sudo mkfs.ext2 -n -t ext2 /dev/md3
sudo mkfs.ext3 -n -t ext3 /dev/md3
sudo mkfs.ext4 -n -t ext4 /dev/md3

La bonne logique voudrait que, pour ne prendre aucun risque, je te demande de dupliquer les trois disques (ou les quatre)

Avec cette capture   d'écran,  on est certain d'avoir du ext4. Donc uniquement

sudo mkfs.ext4 -n -t ext4 /dev/md3  

Peux-tu de nouveau donner ce retour 

sudo mdadm --detail /dev/md3

J'ai le message d'erreur.

[   79.305555] md: kicking non-fresh sdb3 from array!

Dernière modification par geole (Le 05/07/2021, à 21:33)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#32 Le 05/07/2021, à 18:41

Pat97615

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

Je lance mkfs ?

admin@vhs-4:/$ sudo mdadm --detail /dev/md3
/dev/md3:
        Version : 1.0
  Creation Time : Sat Jan 14 16:21:09 2012
     Raid Level : raid5
  Used Dev Size : -1
   Raid Devices : 4
  Total Devices : 3
    Persistence : Superblock is persistent

    Update Time : Sat Jun 26 19:03:15 2021
          State : active, degraded, Not Started
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           Name : VHS-4:3
           UUID : ab727cf1:4bcd8136:f183c289:e268f49f
         Events : 671256

    Number   Major   Minor   RaidDevice State
       0       0        0        0      removed
       1       8        3        1      active sync   /dev/sda3
       3       8       35        2      active sync   /dev/sdc3
       4       8       51        3      active sync   /dev/sdd3

Hors ligne

#33 Le 05/07/2021, à 18:45

geole

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

sudo mdadm --examine /dev/sda3 /dev/sdb3 /dev/sdc3 sdd3 

je pars manger


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#34 Le 05/07/2021, à 18:46

Pat97615

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

Bon ap et un grand merci pour tout ça! smile

Hors ligne

#35 Le 05/07/2021, à 18:50

Pat97615

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

geole a écrit :

sudo mdadm --examine /dev/sda3 /dev/sdb3 /dev/sdc3 sdd3

admin@vhs-4:/$ sudo mdadm --examine /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3
/dev/sda3:
          Magic : a92b4efc
        Version : 1.0
    Feature Map : 0x0
     Array UUID : ab727cf1:4bcd8136:f183c289:e268f49f
           Name : VHS-4:3
  Creation Time : Sat Jan 14 16:21:09 2012
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 5849769184 (2789.39 GiB 2995.08 GB)
     Array Size : 8774653632 (8368.16 GiB 8985.25 GB)
  Used Dev Size : 5849769088 (2789.39 GiB 2995.08 GB)
   Super Offset : 5849769440 sectors
          State : active
    Device UUID : 5a759712:390b8d7b:a11b4bc4:e4d7c622

    Update Time : Sat Jun 26 19:03:15 2021
       Checksum : 78dba0d4 - correct
         Events : 671256

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 1
   Array State : .AAA ('A' == active, '.' == missing)
/dev/sdb3:
          Magic : a92b4efc
        Version : 1.0
    Feature Map : 0x0
     Array UUID : ab727cf1:4bcd8136:f183c289:e268f49f
           Name : VHS-4:3
  Creation Time : Sat Jan 14 16:21:09 2012
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 5849769184 (2789.39 GiB 2995.08 GB)
     Array Size : 8774653632 (8368.16 GiB 8985.25 GB)
  Used Dev Size : 5849769088 (2789.39 GiB 2995.08 GB)
   Super Offset : 5849769440 sectors
          State : clean
    Device UUID : 860639ba:d703cdcd:5b90c862:589449e5

    Update Time : Thu Jun  3 03:29:55 2021
       Checksum : d3a01df3 - correct
         Events : 667003

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 0
   Array State : AAAA ('A' == active, '.' == missing)
/dev/sdc3:
          Magic : a92b4efc
        Version : 1.0
    Feature Map : 0x0
     Array UUID : ab727cf1:4bcd8136:f183c289:e268f49f
           Name : VHS-4:3
  Creation Time : Sat Jan 14 16:21:09 2012
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 5849769184 (2789.39 GiB 2995.08 GB)
     Array Size : 8774653632 (8368.16 GiB 8985.25 GB)
  Used Dev Size : 5849769088 (2789.39 GiB 2995.08 GB)
   Super Offset : 5849769440 sectors
          State : active
    Device UUID : 9b41d71e:73d313cf:6876a241:7649af08

    Update Time : Sat Jun 26 19:03:15 2021
       Checksum : 3be1fb32 - correct
         Events : 671256

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 2
   Array State : .AAA ('A' == active, '.' == missing)
/dev/sdd3:
          Magic : a92b4efc
        Version : 1.0
    Feature Map : 0x0
     Array UUID : ab727cf1:4bcd8136:f183c289:e268f49f
           Name : VHS-4:3
  Creation Time : Sat Jan 14 16:21:09 2012
     Raid Level : raid5
   Raid Devices : 4

 Avail Dev Size : 5849769184 (2789.39 GiB 2995.08 GB)
     Array Size : 8774653632 (8368.16 GiB 8985.25 GB)
  Used Dev Size : 5849769088 (2789.39 GiB 2995.08 GB)
   Super Offset : 5849769440 sectors
          State : active
    Device UUID : 7eebfcf2:90d4226f:29a92d0f:e3b74006

    Update Time : Sat Jun 26 19:03:15 2021
       Checksum : 7b334761 - correct
         Events : 671256

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 3
   Array State : .AAA ('A' == active, '.' == missing)

Hors ligne

#36 Le 05/07/2021, à 20:33

geole

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

extraits

Pat97615 a écrit :
admin@vhs-4:/$ sudo mdadm --examine /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3
/dev/sda3:
      Update Time : Sat Jun 26 19:03:15 2021
       Checksum : 78dba0d4 - correct
         Events : 671256

/dev/sdb3:
     Update Time : Thu Jun  3 03:29:55 2021
       Checksum : d3a01df3 - correct
         Events : 667003

/dev/sdc3:
    Update Time : Sat Jun 26 19:03:15 2021
       Checksum : 3be1fb32 - correct
         Events : 671256

/dev/sdd3:
    Update Time : Sat Jun 26 19:03:15 2021
       Checksum : 7b334761 - correct
         Events : 671256

On constate que la partition SDB3  n'est plus mise à jour depuis le 3 juin, Elle a donc un retard de 23 jours par rapport aux trois et surtout un déphasage de 4253 événements ( 671256 -  667003)
Je ne saurais pas en trouver la cause.  Les  logs du 3 juin sont probablement disparus

Donc on repart sur l'idée de remise en état
Obtenir la liste des super blocs

sudo mkfs.ext4 -n -t ext4 /dev/md3 

et lancer le fsck de réparation  jusqu'à ce que l'un fonctionne

sudo fsck -f -b nnnnnnn  /dev/md3

Bon courage
Plus tard, on réinitialisera SDB3

Dernière modification par geole (Le 05/07/2021, à 20:35)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#37 Le 05/07/2021, à 20:43

Pat97615

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

Ok je fais ça.
En attendant je te poste ci-dessous le résultat de 2 commandes que j'ai essayées.
Elles me laissent perplexe... hmm

admin@vhs-4:/$ sudo mdadm --assemble /dev/md0 /dev/sda2 /dev/sdc2 /dev/sdd2 /dev/sdb2 --force
mdadm: /dev/sda2 is busy - skipping
mdadm: /dev/sdc2 is busy - skipping
mdadm: /dev/sdd2 is busy - skipping
mdadm: /dev/md0 is already in use.
admin@vhs-4:/$ ^C
admin@vhs-4:/$ sudo mdadm --stop /dev/md0
mdadm: Cannot get exclusive access to /dev/md0:Perhaps a running process, mounted filesystem or active volume group?

Hors ligne

#38 Le 05/07/2021, à 20:55

Pat97615

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

geole a écrit :

Donc on repart sur l'idée de remise en état
Obtenir la liste des super blocs

sudo mkfs.ext4 -n -t ext4 /dev/md3 

Voici le retour de la commande "mkfs"

admin@vhs-4:/$ sudo mkfs.ext4 -n -t ext4 /dev/md3
mke2fs 1.42.9 (4-Feb-2014)
mkfs.ext4: Device size reported to be zero.  Invalid partition specified, or
        partition table wasn't reread after running fdisk, due to
        a modified partition being busy and in use.  You may need to reboot
        to re-read your partition table.

Hors ligne

#39 Le 05/07/2021, à 20:58

Pat97615

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

A plus tard! Merci et bonne nuit, geole! wink

Hors ligne

#40 Le 05/07/2021, à 21:15

geole

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

Pat97615 a écrit :

Ok je fais ça.
En attendant je te poste ci-dessous le résultat de 2 commandes que j'ai essayées.
Elles me laissent perplexe... hmm

admin@vhs4:/$ sudo mdadm --assemble /dev/md0 /dev/sda2 /dev/sdc2 /dev/sdd2 /dev/sdb2 --force
mdadm: /dev/sda2 is busy - skipping
mdadm: /dev/sdc2 is busy - skipping
mdadm: /dev/sdd2 is busy - skipping
mdadm: /dev/md0 is already in use.
admin@vhs-4:/$ ^C
admin@vhs-4:/$ sudo mdadm --stop /dev/md0
mdadm: Cannot get exclusive access to /dev/md0:Perhaps a running process, mounted filesystem or active volume group?

md0 est la partition raids qui contient le logiciel. Donc impossible à arrêter car en cours d'utilisation.  Pour vérifier soit la commande lsblk. C'est la dernière du post n° 5   Soit cette commande

df -h

Dernière modification par geole (Le 05/07/2021, à 21:19)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#41 Le 05/07/2021, à 21:58

geole

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

Pat97615 a écrit :

Voici le retour de la commande "mkfs"

admin@vhs-4:/$ sudo mkfs.ext4 -n -t ext4 /dev/md3
mke2fs 1.42.9 (4-Feb-2014)
mkfs.ext4: Device size reported to be zero.  Invalid partition specified, or
        partition table wasn't reread after running fdisk, due to
        a modified partition being busy and in use.  You may need to reboot
        to re-read your partition table.

Je ne comprends pas trop, Peut-être est-il nécessaire de rebooter
en  attendant, voici le début de la liste pour les dix premiers numéros en version 20.04

sudo mkfs.ext4 -n -t ext4 /dev/md66
mke2fs 1.45.5 (07-Jan-2020)
/dev/md66 contient un système de fichiers ext4 étiqueté « md66 »
	dernier montage sur /home/a/OUT le Tue Jun 22 13:35:19 2021
Procéder malgré tout ? (o,N) o
En train de créer un système de fichiers avec 7862784 4k blocs et 1966080 i-noeuds.
UUID de système de fichiers=c7f90c0a-f027-4915-8b49-0263890477ab
Superblocs de secours stockés sur les blocs : 
	32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 
	4096000

Dernière modification par geole (Le 05/07/2021, à 21:59)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#42 Le 06/07/2021, à 09:49

geole

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

Bonjour
Point sur la situation.

A) Ce qu'on sait
   1)  Les quatre disques sont en bon état.  Voir les liens
             Pour SDB https://forum.ubuntu-fr.org/viewtopic.p … #p22469728
             Pour SDA SDC et SDD https://forum.ubuntu-fr.org/viewtopic.p … #p22469898
   2)  La partition SDB3 a cessé d'être utilisée le 3 juin et les autres le 26 juin. Voir ce lien
        https://forum.ubuntu-fr.org/viewtopic.p … #p22469984
        Question:      As-tu fait quelques boots        entre le 3 juin et le 26 juin?
   3)   Il y a eu un gros incident début juillet avec au moins la carte télévision.    Voir ce lien
          https://forum.ubuntu-fr.org/viewtopic.p … #p22469707
   4)   La commande  mdadm --run     ne fonctionne pas.    Voir ce lien
         https://forum.ubuntu-fr.org/viewtopic.p … #p22469935
        => erreur d'entrée sortie mais  rien n'est visible dans la trace. Voir ce lien
              https://forum.ubuntu-fr.org/viewtopic.p … #p22469956
    5) La commande fsck ne fonctionne pas; Voir ce lien
          https://forum.ubuntu-fr.org/viewtopic.p … #p22469932
          ==> Cela cache certainement un gros problème que je ne sais pas identifier
    6) Il n'y a pas de double  des données
    7) J'atteins ma limite de compétence pour remettre en route sans risque

B) Ma première proposition
     Demander l'avis d'un expert.
     Vu ta situation géographique, un dépannage en ligne serait le bienvenu.     Il pourrait indiquer des commandes dont il a parfaitement identifié les conséquences
    Je te conseille donc de prendre contact  avec RMY    Voir ces liens
      https://doc.ubuntu-fr.org/utilisateurs/rmy
     https://forum.ubuntu-fr.org/viewtopic.php?id=447877
     https://forum.ubuntu-fr.org/viewtopic.p … #p12584071
     https://forum.ubuntu-fr.org/viewtopic.p … #p22407331
     il suffit que tu le contactes par EMAIL
          Tu cliques sur ce lien  https://forum.ubuntu-fr.org/profile.php?id=20551
puis sur "envoyer un email"  en lui donnant cette récapitulation. Lien => https://forum.ubuntu-fr.org/viewtopic.p … #p22470098
      La suite se passera en privé.

C) Ma seconde proposition si tu es d'accord.
     Dupliquer les trois disques SDA SDC SDD,
     Je te guiderais.     D'abord avec la commande dd car ddrescue est inutilisable vu que tu es en version 14.04 
J'ai noté que tu avais déjà un disque de secours, Il faudrait donc que tu en achètes deux autres.
Si ta partition arrive à saturation, cela sera le moment d'envisager l'achat de disques de 4 To ou plus au lieu de 3 To suivant ton budget .
il faut prévoir une dizaine d'heures pour dupliquer un disque si tout est parfait.
NOTA. Il est possible que l'expert te demande aussi une sauvegarde.
   Donne déjà ce retour pour identifier parfaitement les quatre disques

     ls -ls /dev/disk/by-id

D) Deux types de réparation que je sais proposer
   1) Dire de démarrer en reprenant à la date du trois juin.     C'est une option à mettre
====> --force       -f   : Assemble the array even if some superblocks appear out-of-date.  This involves modifying the superblocks.

(je chercherais)
        Mais, je n'en  connais pas trop les conséquences:     Perte de 4233 Fichiers?  Et problème pas résolu.
   2) Dire de virer la partition SDB3 et de la reconstruire
       Mais je ne sais pas trop si,  dans cette situation,  la commande sera acceptée  et si oui,   si cela sera suffisant pour réparer car je crains un autre problème masqué jusqu'alors.
Donc dans les deux cas, utilisation de la sauvegarde pour remise en état  soit 30 heures de remise en état.

E) Point sur la version 14.04
J'aimerais savoir  si tu disposes d'un autre disque classique pour une éventuelle installation de la version 20.04

F)  Dans l'hypothèse d'un gros incident.

Tu devrais télécharger la version 20.04 ( https://releases.ubuntu.com/ )  , fabriquer un support d'installation ( https://doc.ubuntu-fr.org/ventoy ) et voir s'il est bootable.  Cela permettrait de travailler éventuellement en live USB et d'utiliser la dernière version de tesdisk pour voir ses conclusions.

G) Erreur de frappe
Je viens de constater que tu as frappé

sudo journalct1 -b | grep md0

au lieu de

sudo journalctl -b | grep md0

du coup, refais donc

sudo journalctl  | grep md3

Dernière modification par geole (Le 06/07/2021, à 18:46)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#43 Le 06/07/2021, à 12:54

Pat97615

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

Bonjour  geole,

Impressionnant ce  récapitulatif!
Pour les questions:

geole a écrit :

As-tu fait quelques boots entre le 3 juin et le 26 juin?

Oui il  y en  a eu plusieurs! Mais surtout, fin juin le serveur s'est éteint tout seul et en  l'allumant, pendant le boot
il s'éteignait de nouveau tout seul. Il l'a fait plusieurs fois après chaque tentative jusqu'à ce que je l'ouvre pour vérifier les ventilos, les
condensateurs, les connexions. Je voulais voir s'il chauffait et si les coupures venaient de là. J'ai démonté la carte tv à ce moment.
Je l'ai rebranché et il est reparti. J'ai pu y mettre des fichiers et regarder des vidéos qui y étaient stockées.
Ensuite il a dû s'éteindre à nouveau et je me suis retrouvé dans la situation actuelle.

geole a écrit :

Dupliquer les trois disques SDA SDC SDD,

J'ai bien 2 disques WD RED 3.0 TB neufs, il me reste à voir si je peux trouver un équivalent à Mayotte.
Ce serait une sacrée précaution de pouvoir dupliquer les disques A, C et D, surtout que le raid est sensé reconstruire le B avec les 3 autres.
Les C et D sont les disques les plus vieux...Le B était un WD RED de 2019!

Pour l'expansion du volume qui devient nécessaire, je pensais remplacer graduellement les 3TO défaillants par des 6 TO, mais...
Si je ne me trompe, en 2012, date de création du raid, l'OS était en 32 bits ce qui limite la grappe raid à 16TO.
Alors si je voulais monter à 24 TO avec 4 disques de 6TO je pensais faire ça:

Sauvegarder sur un disque externe/supprimer des données du serveur pour réduire la quantité à 6To
Remplacer le disque défectueux par un disque de 6To
Sauvegarder intégralement les 6To de données qui restent sur le nouveau disque
Insèrer le 3ième disque de 6To et créer une grappe RAID 5 dégradé avec deux disques de 6To (le premier remplacé et le neuf)
Formater cette grappe RAID en 64 bits
Recopier les 6To de données sur la nouvelle grappe RAID
Enfin, insèrer le disque de 6To ou se trouvait la sauvegarde dans la grappe RAID pour obtenir une grappe RAID 5 de 3 disques de 6To sécurisée offrant 12To d'espace de stockage et formatée en 64bits
Puis ajouter un 4ième disque de 6To pour étendre la grappe RAID pour avoir 18To d'espace de stockage.

Pour compléter ces perspectives, je songe à faire évoluer ce serveur ou en monter un plus puissant qui puisse être mis à jour, notamment....
Le problème reste la récupération des données.
Sinon, avant d'entreprendre des opérations longues sur les disques, je vais remplacer mon onduleur qui ne me semble plus fiable du tout!
Je dois donc trouver les DD qui conviennent et un onduleur sur Mayotte où tout est plus compliqué à trouver!

geole a écrit :

J'aimerais savoir  si tu disposes d'un autre disque classique pour une éventuelle installation de la version 20.04

L'OS du serveur me semble être sur la clé USB branchée derrière le serveur qui boot dessus (sde): est-ce que tu penses à ce stockage
en parlant d'upgrader Ubuntu sur un autre disque classique?

Je peux sans doute faire une clé de boot avec Ubuntu 20.04

Ok, je refais sudo journalctl | grep md3

Est-ce que l'OS sur la clé, avec son gestionnaire de disque et l'interface navigateur, ne pourrait-il pas être responsable du blocage de certaines commandes?

Grand merci pour tout ce boulot!

Hors ligne

#44 Le 06/07/2021, à 13:01

Pat97615

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

geole a écrit :
sudo journalctl  | grep md3
admin@vhs-4:/$ sudo journalctl | grep md3
[sudo] password for admin:
sudo: journalctl: command not found
admin@vhs-4:/$ sudo journalctl -b | grep md3
sudo: journalctl: command not found

Hors ligne

#45 Le 06/07/2021, à 13:24

geole

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

réponses rapides
Tu n'as aucun disque défectueux
Je vois que tu as déjà deux disques, Pour le troisième à acheter, on se moque de sa marque
La seule contrainte est que sa taille soit au minima de
User Capacity:    3,000,592,982,016 bytes [3.00 TB]

Je comprends maintenant que le disque SDE contient le logiciel du RAID du constructeur
Tu dis qu'il est en 32 bits et que cela limite la taille a 16 TO
Du coup, Peux-tu donner ce retour afin de voir s'il est aussi utilisable pour autre chose.

sudo parted /dev/sde unit    MiB print free
Pat97615 a écrit :

Est-ce que l'OS sur la clé, avec son gestionnaire de disque et l'interface navigateur, ne pourrait-il pas être responsable du blocage de certaines commandes?

Non. il  n'y a pas de lien La commande journalctl  n'existait certainement pas en version 14.04


Pat97615 a écrit :

Remplacer le disque défectueux par un disque de 6To
Sauvegarder intégralement les 6To de données qui restent sur le nouveau disque

Tu te trompe
Ton raids est composé de 4 partitions de  2,7 TiO en  RAIDS-5
Le principe du RAIDS est de mettre de la sécurité   répartie par morceaux sur tous les disques pour un équivalent de 1 disque
Soit dont une taille maxima de données potentielles de
     2,7 * (4-1)  = 8,1 TiO      on peut arrondir a 9 To
Mais lorsque tu enlèves un disque, tu  n'as rien perdu en données,   tu te faut donc un disque d'au moins 8 To et pas 6 To pour tout sauver d'un seul coup.!!!!!!!
Tu peux effectivement tout décharger  logiquement  par répertoire sur plusieurs disques afin de rebatir   entièrement ou tu peux remplacer disque par disque   . Je te renvoie à la documentation
Paragraphe 5.2 https://doc.ubuntu-fr.org/raid_logiciel … es_disques

Pat97165 a écrit :

Ce serait une sacrée précaution de pouvoir dupliquer les disques A, C et D, surtout que le raid est sensé reconstruire le B avec les 3 autres.
Les C et D sont les disques les plus vieux...Le B était un WD RED de 2019!

Je te propose de commencer pour sécuriser la suite
1) Tu donnes le retour de cette commande

 ls -ls /dev/disk/by-id

2) Tu enlève le disque SDB que tu sais identifier
3) Tu y mets un de tes disques neufs
4) On regarde l'état du disque neuf

sudo smartctl -s on  -a /dev/sdb

5) Tu Redonnes de nouveau cette commande

 ls -ls /dev/disk/by-id

6) Je te fournirais alors la commande dd à faire.
Bon courage.

Dernière modification par geole (Le 06/07/2021, à 13:52)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#46 Le 06/07/2021, à 14:44

Pat97615

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

De retour!

Hors ligne

#47 Le 06/07/2021, à 14:59

Pat97615

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

admin@vhs-4:/$ sudo parted /dev/sde unit Mib print free
Error: Could not stat device /dev/sde - No such file or directory.
Retry/Cancel? cancel
admin@vhs-4:/$ sudo parted /dev/sde1 unit print free
Error: Could not stat device /dev/sde1 - No such file or directory.

Retour de la commande ls

admin@vhs-4:/$ sudo ls -ls /dev/disk/by-id
total 0
0 lrwxrwxrwx 1 root root  9 Jul  5 14:36 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0NLY2PK -> ../../sda
0 lrwxrwxrwx 1 root root 10 Jul  4 14:29 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0NLY2PK-part1 -> ../../sda1
0 lrwxrwxrwx 1 root root 10 Jul  4 14:32 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0NLY2PK-part2 -> ../../sda2
0 lrwxrwxrwx 1 root root 10 Jul  4 14:30 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0NLY2PK-part3 -> ../../sda3
0 lrwxrwxrwx 1 root root  9 Jul  5 17:07 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0NLY38Y -> ../../sdb
0 lrwxrwxrwx 1 root root 10 Jul  4 14:29 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0NLY38Y-part1 -> ../../sdb1
0 lrwxrwxrwx 1 root root 10 Jul  4 14:29 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0NLY38Y-part2 -> ../../sdb2
0 lrwxrwxrwx 1 root root 10 Jul  4 14:30 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0NLY38Y-part3 -> ../../sdb3
0 lrwxrwxrwx 1 root root  9 Jul  4 14:29 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1565484 -> ../../sdd
0 lrwxrwxrwx 1 root root 10 Jul  4 14:29 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1565484-part1 -> ../../sdd1
0 lrwxrwxrwx 1 root root 10 Jul  4 14:32 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1565484-part2 -> ../../sdd2
0 lrwxrwxrwx 1 root root 10 Jul  4 14:30 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1565484-part3 -> ../../sdd3
0 lrwxrwxrwx 1 root root  9 Jul  5 14:43 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1652173 -> ../../sdc
0 lrwxrwxrwx 1 root root 10 Jul  4 14:29 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1652173-part1 -> ../../sdc1
0 lrwxrwxrwx 1 root root 10 Jul  4 14:32 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1652173-part2 -> ../../sdc2
0 lrwxrwxrwx 1 root root 10 Jul  4 14:30 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1652173-part3 -> ../../sdc3
0 lrwxrwxrwx 1 root root  9 Jul  5 21:37 md-name-system:upgrade -> ../../md0
0 lrwxrwxrwx 1 root root  9 Jul  5 21:37 md-uuid-9a995d76:588623a7:3b1a8f08:1b6292c6 -> ../../md0
0 lrwxrwxrwx 1 root root  9 Jul  4 14:29 usb-090c_MINI_KEY_11061525000195-0:0 -> ../../sde
0 lrwxrwxrwx 1 root root 10 Jul  4 14:29 usb-090c_MINI_KEY_11061525000195-0:0-part1 -> ../../sde1
0 lrwxrwxrwx 1 root root  9 Jul  5 14:43 wwn-0x50014ee2066aefb4 -> ../../sdc
0 lrwxrwxrwx 1 root root 10 Jul  4 14:29 wwn-0x50014ee2066aefb4-part1 -> ../../sdc1
0 lrwxrwxrwx 1 root root 10 Jul  4 14:32 wwn-0x50014ee2066aefb4-part2 -> ../../sdc2
0 lrwxrwxrwx 1 root root 10 Jul  4 14:30 wwn-0x50014ee2066aefb4-part3 -> ../../sdc3
0 lrwxrwxrwx 1 root root  9 Jul  5 17:07 wwn-0x50014ee2111a2902 -> ../../sdb
0 lrwxrwxrwx 1 root root 10 Jul  4 14:29 wwn-0x50014ee2111a2902-part1 -> ../../sdb1
0 lrwxrwxrwx 1 root root 10 Jul  4 14:29 wwn-0x50014ee2111a2902-part2 -> ../../sdb2
0 lrwxrwxrwx 1 root root 10 Jul  4 14:30 wwn-0x50014ee2111a2902-part3 -> ../../sdb3
0 lrwxrwxrwx 1 root root  9 Jul  4 14:29 wwn-0x50014ee25bb53093 -> ../../sdd
0 lrwxrwxrwx 1 root root 10 Jul  4 14:29 wwn-0x50014ee25bb53093-part1 -> ../../sdd1
0 lrwxrwxrwx 1 root root 10 Jul  4 14:32 wwn-0x50014ee25bb53093-part2 -> ../../sdd2
0 lrwxrwxrwx 1 root root 10 Jul  4 14:30 wwn-0x50014ee25bb53093-part3 -> ../../sdd3
0 lrwxrwxrwx 1 root root  9 Jul  5 14:36 wwn-0x50014ee2666f6679 -> ../../sda
0 lrwxrwxrwx 1 root root 10 Jul  4 14:29 wwn-0x50014ee2666f6679-part1 -> ../../sda1
0 lrwxrwxrwx 1 root root 10 Jul  4 14:32 wwn-0x50014ee2666f6679-part2 -> ../../sda2
0 lrwxrwxrwx 1 root root 10 Jul  4 14:30 wwn-0x50014ee2666f6679-part3 -> ../../sda3

Je permute les disques...

Hors ligne

#48 Le 06/07/2021, à 15:14

Pat97615

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

Voici le retour de smartctl pour le disque sdb neuf:

admin@vhs-4:/$ sudo smartctl -s on -a /dev/sdb
[sudo] password for admin:
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.16.0-31-generic] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Red (AF)
Device Model:     WDC WD30EFRX-68EUZN0
Serial Number:    WD-WCC4N2ARV3X4
LU WWN Device Id: 5 0014ee 2640ebef8
Firmware Version: 82.00A82
User Capacity:    3,000,592,982,016 bytes [3.00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    5400 rpm
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ACS-2 (minor revision not indicated)
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is:    Tue Jul  6 16:12:07 2021 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x00) Offline data collection activity
                                        was never started.
                                        Auto Offline Data Collection: Disabled.
Self-test execution status:      (   0) The previous self-test routine completed
                                        without error or no self-test has ever
                                        been run.
Total time to complete Offline
data collection:                (38640) seconds.
Offline data collection
capabilities:                    (0x7b) SMART execute Offline immediate.
                                        Auto Offline data collection on/off support.
                                        Suspend Offline collection upon new
                                        command.
                                        Offline surface scan supported.
                                        Self-test supported.
                                        Conveyance Self-test supported.
                                        Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                                        power-saving mode.
                                        Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                                        General Purpose Logging supported.
Short self-test routine
recommended polling time:        (   2) minutes.
Extended self-test routine
recommended polling time:        ( 388) minutes.
Conveyance self-test routine
recommended polling time:        (   5) minutes.
SCT capabilities:              (0x703d) SCT Status supported.
                                        SCT Error Recovery Control supported.
                                        SCT Feature Control supported.
                                        SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   100   253   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0027   100   253   021    Pre-fail  Always       -       0
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       4
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   100   253   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   100   100   000    Old_age   Always       -       27
 10 Spin_Retry_Count        0x0032   100   253   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   253   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       4
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       0
193 Load_Cycle_Count        0x0032   200   200   000    Old_age   Always       -       36
194 Temperature_Celsius     0x0022   119   108   000    Old_age   Always       -       31
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   100   253   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   100   253   000    Old_age   Offline      -       0

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]


SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

Hors ligne

#49 Le 06/07/2021, à 15:16

Pat97615

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

Retour de la commande ls avec le disque neuf sdb

admin@vhs-4:/$ sudo ls -ls /dev/disk/by-id
total 0
0 lrwxrwxrwx 1 root root  9 Jul  6 16:11 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0NLY2PK -> ../../sda
0 lrwxrwxrwx 1 root root 10 Jul  6 16:08 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0NLY2PK-part1 -> ../../sda1
0 lrwxrwxrwx 1 root root 10 Jul  6 16:11 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0NLY2PK-part2 -> ../../sda2
0 lrwxrwxrwx 1 root root 10 Jul  6 16:09 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0NLY2PK-part3 -> ../../sda3
0 lrwxrwxrwx 1 root root  9 Jul  6 16:11 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2ARV3X4 -> ../../sdb
0 lrwxrwxrwx 1 root root  9 Jul  6 16:11 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1565484 -> ../../sdd
0 lrwxrwxrwx 1 root root 10 Jul  6 16:08 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1565484-part1 -> ../../sdd1
0 lrwxrwxrwx 1 root root 10 Jul  6 16:11 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1565484-part2 -> ../../sdd2
0 lrwxrwxrwx 1 root root 10 Jul  6 16:09 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1565484-part3 -> ../../sdd3
0 lrwxrwxrwx 1 root root  9 Jul  6 16:11 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1652173 -> ../../sdc
0 lrwxrwxrwx 1 root root 10 Jul  6 16:08 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1652173-part1 -> ../../sdc1
0 lrwxrwxrwx 1 root root 10 Jul  6 16:11 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1652173-part2 -> ../../sdc2
0 lrwxrwxrwx 1 root root 10 Jul  6 16:09 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1652173-part3 -> ../../sdc3
0 lrwxrwxrwx 1 root root  9 Jul  6 16:11 md-name-system:upgrade -> ../../md0
0 lrwxrwxrwx 1 root root  9 Jul  6 16:11 md-uuid-9a995d76:588623a7:3b1a8f08:1b6292c6 -> ../../md0
0 lrwxrwxrwx 1 root root  9 Jul  6 16:08 usb-090c_MINI_KEY_11061525000195-0:0 -> ../../sde
0 lrwxrwxrwx 1 root root 10 Jul  6 16:08 usb-090c_MINI_KEY_11061525000195-0:0-part1 -> ../../sde1
0 lrwxrwxrwx 1 root root  9 Jul  6 16:11 wwn-0x50014ee2066aefb4 -> ../../sdc
0 lrwxrwxrwx 1 root root 10 Jul  6 16:08 wwn-0x50014ee2066aefb4-part1 -> ../../sdc1
0 lrwxrwxrwx 1 root root 10 Jul  6 16:11 wwn-0x50014ee2066aefb4-part2 -> ../../sdc2
0 lrwxrwxrwx 1 root root 10 Jul  6 16:09 wwn-0x50014ee2066aefb4-part3 -> ../../sdc3
0 lrwxrwxrwx 1 root root  9 Jul  6 16:11 wwn-0x50014ee25bb53093 -> ../../sdd
0 lrwxrwxrwx 1 root root 10 Jul  6 16:08 wwn-0x50014ee25bb53093-part1 -> ../../sdd1
0 lrwxrwxrwx 1 root root 10 Jul  6 16:11 wwn-0x50014ee25bb53093-part2 -> ../../sdd2
0 lrwxrwxrwx 1 root root 10 Jul  6 16:09 wwn-0x50014ee25bb53093-part3 -> ../../sdd3
0 lrwxrwxrwx 1 root root  9 Jul  6 16:11 wwn-0x50014ee2640ebef8 -> ../../sdb
0 lrwxrwxrwx 1 root root  9 Jul  6 16:11 wwn-0x50014ee2666f6679 -> ../../sda
0 lrwxrwxrwx 1 root root 10 Jul  6 16:08 wwn-0x50014ee2666f6679-part1 -> ../../sda1
0 lrwxrwxrwx 1 root root 10 Jul  6 16:11 wwn-0x50014ee2666f6679-part2 -> ../../sda2
0 lrwxrwxrwx 1 root root 10 Jul  6 16:09 wwn-0x50014ee2666f6679-part3 -> ../../sda3

Hors ligne

#50 Le 06/07/2021, à 15:47

geole

Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To

extrait des commandes AVANT

admin@vhs-4:/$ sudo ls -ls /dev/disk/by-id
total 0
0 lrwxrwxrwx 1 root root  9 Jul  5 14:36 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0NLY2PK -> ../../sda
0 lrwxrwxrwx 1 root root  9 Jul  5 17:07 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0NLY38Y -> ../../sdb
0 lrwxrwxrwx 1 root root  9 Jul  4 14:29 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1565484 -> ../../sdd
0 lrwxrwxrwx 1 root root  9 Jul  5 14:43 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1652173 -> ../../sdc

0 lrwxrwxrwx 1 root root  9 Jul  5 14:43 wwn-0x50014ee2066aefb4 -> ../../sdc
0 lrwxrwxrwx 1 root root  9 Jul  5 17:07 wwn-0x50014ee2111a2902 -> ../../sdb
0 lrwxrwxrwx 1 root root  9 Jul  4 14:29 wwn-0x50014ee25bb53093 -> ../../sdd
0 lrwxrwxrwx 1 root root  9 Jul  5 14:36 wwn-0x50014ee2666f6679 -> ../../sda

Le smartcl montre que le nouveau disque est en bon état et a une taille identique. La documentation évoque un buffer de 64 Mo.

extrait des commandes APRES

admin@vhs-4:/$ sudo ls -ls /dev/disk/by-id
total 0
0 lrwxrwxrwx 1 root root  9 Jul  6 16:11 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0NLY2PK -> ../../sda
0 lrwxrwxrwx 1 root root  9 Jul  6 16:11 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2ARV3X4 -> ../../sdb
0 lrwxrwxrwx 1 root root  9 Jul  6 16:11 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1565484 -> ../../sdd
0 lrwxrwxrwx 1 root root  9 Jul  6 16:11 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1652173 -> ../../sdc

0 lrwxrwxrwx 1 root root  9 Jul  6 16:11 wwn-0x50014ee2066aefb4 -> ../../sdc
0 lrwxrwxrwx 1 root root  9 Jul  6 16:11 wwn-0x50014ee25bb53093 -> ../../sdd
0 lrwxrwxrwx 1 root root  9 Jul  6 16:11 wwn-0x50014ee2640ebef8 -> ../../sdb
0 lrwxrwxrwx 1 root root  9 Jul  6 16:11 wwn-0x50014ee2666f6679 -> ../../sda

On constate bien un changement de référence  pour le disque SDB.

Maintenant, on va travailler avec l'identifiant unique du disque
Grâce à cela, si on doit  restaurer les disques et que tu te trompes d'emplacement ( les SDA SDB SDC SDD changent mais  les UUID restent identiques) . on ne se trompera pas dans les disques

Donc copie  du disque SDC dans le disque SDB.
Cette commande est à faire en copier/coller

sudo dd if=/dev/disk/by-id/ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1652173  of=/dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2ARV3X4  bs=8M conv=notrunc,noerror status=progress

Voir paragraphe 2.3 de https://doc.ubuntu-fr.org/dd#cloner_un_ … _en_entier


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne