#26 Le 05/07/2021, à 18:11
- Pat97615
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Pour info au cas où...et parce que je suis débutant en Linux, j'ai effectué les manips suivantes sur mon serveur.
Shutdown et retrait du disque N°2 (en bas à gauche) puis remplacement par un neuf pour confirmer que cette
position est bien la b et contrôle avec smartctl -A /dev/sdb du power on hours qui a confirmé la position, compte tenu du peu d'heures constaté.
Idem pour le disque c.
Ensuite remise des disques d'origine sur lesquels nous travaillons actuellement.
Des fois que certaines commandes renvoient des infos des disques neufs. Mais il y a peu de chance car je pense avoir
exécuté les commandes transmises sur le site après ces manips...
Hors ligne
#27 Le 05/07/2021, à 18:22
- geole
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Merci pour ces explications complémentaires. La manipulation me semble sans lien avec ce qui est actuellement rencontré.
Il me semble avoir vu dans une de tes photos que les références des disques étaient visibles et sont obtenues avec l'option petit a et pas grand A de la commande smartctl
admin@vhs-4:/$ sudo smartctl -a /dev/sda
=== START OF INFORMATION SECTION ===
Model Family: Western Digital Red (AF)
Device Model: WDC WD30EFRX-68EUZN0
Serial Number: WD-WCC4N0NLY2PK
sudo smartctl -a /dev/sdc
=== START OF INFORMATION SECTION ===
Model Family: Western Digital Caviar Green (AF, SATA 6Gb/s)
Device Model: WDC WD30EZRX-00MMMB0
Serial Number: WD-WCAWZ1652173
sudo smartctl -a /dev/sdd
=== START OF INFORMATION SECTION ===
Model Family: Western Digital Caviar Green (AF, SATA 6Gb/s)
Device Model: WDC WD30EZRX-00MMMB0
Serial Number: WD-WCAWZ1565484
Pense à donner ce retour
dmesg | tail -100
Dernière modification par geole (Le 05/07/2021, à 18:30)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#28 Le 05/07/2021, à 18:24
- Pat97615
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Messages 18 et 25 bien lus!
Quelques infos sur mon serveur qui j'espère aideront:
VHS - Organisation du RAID
Sur le NAS VHS «original» avec le firmware Ve-Hotech, l'organisation de l'espace de stockage sur les disques a les caractéristiques suivantes:
le firmware/OS est distribué sur l'ensemble des disques dans un array md0 en RAID 1
les data occupent un array md3 dont le type RAID est choisi à l'installation
Ainsi chaque disque dispose de 3 partitions:
sdX1 est réservée au swap de la mémoire du système
sdX2 est une partition en FS ext4, membre du RAID 1 système md0
sdX3 est une partition en FS ext4, membre du RAID X data md3
L'image ci-dessous illustre l'organisation pour 4 disques de 4To chacun avec les datas en RAID 5, sde correspond ici à la clé / au dongle (toujours branché(e) si interne):
L'image en question:
https://1drv.ms/u/s!AtAF9CKlzgi3whh9pZW … Q?e=Ta3uVH
Si ça peut préciser les systèmes de fichier pour éviter un éventuel formatage risqué
Hors ligne
#29 Le 05/07/2021, à 18:27
- Pat97615
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
admin@vhs-4:/$ sudo dmesg | tail-100
[1]+ Stopped sudo dmesg | tail-100
admin@vhs-4:/$ tail-100: command not found
Hors ligne
#30 Le 05/07/2021, à 18:30
- Pat97615
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Mieux avec l'espace entre tail et -100!
admin@vhs-4:/$ sudo dmesg | tail -100
[sudo] password for admin:
[ 36.319081] tg3 0000:03:00.0 eth0: Link is down
[ 36.451128] tg3 0000:04:00.0 eth1: Link is down
[ 39.452276] tg3 0000:04:00.0 eth1: Link is up at 1000 Mbps, full duplex
[ 39.452280] tg3 0000:04:00.0 eth1: Flow control is off for TX and off for RX
[ 39.531295] bonding: bond0: link status definitely up for interface eth1, 1000 Mbps full duplex
[ 39.531299] bonding: bond0: making interface eth1 the new active one
[ 39.531301] device eth1 entered promiscuous mode
[ 39.531350] bonding: bond0: first active interface up!
[ 39.531356] IPv6: ADDRCONF(NETDEV_CHANGE): bond0: link becomes ready
[ 39.531383] br0: port 1(bond0) entered forwarding state
[ 39.531386] br0: port 1(bond0) entered forwarding state
[ 39.531402] IPv6: ADDRCONF(NETDEV_CHANGE): br0: link becomes ready
[ 40.320610] tg3 0000:03:00.0 eth0: Link is up at 1000 Mbps, full duplex
[ 40.320614] tg3 0000:03:00.0 eth0: Flow control is off for TX and off for RX
[ 40.331606] bonding: bond0: link status definitely up for interface eth0, 1000 Mbps full duplex
[ 41.530353] init: vht/led-blink (lan) main process (2021) killed by TERM signal
[ 42.780800] hid-multitouch 0003:1B1C:1B6D.0003: usb_submit_urb(ctrl) failed: -1
[ 42.783546] hid-multitouch 0003:1B1C:1B6D.0003: timeout initializing reports
[ 42.783649] input: CORSAIR CORSAIR K83 Wireless USB Receiver UNKNOWN as /devices/pci0000:00/0000:00:04.0/0000:02:00.0/usb8/8-1/8-1:1.2/0003:1B1C:1B6D.0003/input/input14
[ 42.783861] hid-multitouch 0003:1B1C:1B6D.0003: input,hiddev0,hidraw2: USB HID v1.11 Gamepad [CORSAIR CORSAIR K83 Wireless USB Receiver] on usb-0000:02:00.0-1/input2
[ 48.566805] br0: port 1(bond0) entered forwarding state
[ 76.145138] init: vht/led-blink (lan) main process (2045) killed by TERM signal
[ 76.334660] init: avahi-cups-reload main process (4048) terminated with status 1
[ 76.455865] nf_conntrack: automatic helper assignment is deprecated and it will be removed soon. Use the iptables CT target to attach helpers instead.
[ 76.499333] init: vht/discovery main process (4063) terminated with status 2
[ 76.538424] init: plymouth-upstart-bridge main process ended, respawning
[ 76.545232] init: plymouth-upstart-bridge main process (4112) terminated with status 1
[ 76.545242] init: plymouth-upstart-bridge main process ended, respawning
[ 79.303665] md: md3 stopped.
[ 79.304461] md: bind<sdb3>
[ 79.304738] md: bind<sdc3>
[ 79.305396] md: bind<sdd3>
[ 79.305537] md: bind<sda3>
[ 79.305555] md: kicking non-fresh sdb3 from array!
[ 79.305559] md: unbind<sdb3>
[ 79.322854] md: export_rdev(sdb3)
[ 79.323897] md/raid:md3: not clean -- starting background reconstruction
[ 79.323908] md/raid:md3: device sda3 operational as raid disk 1
[ 79.323910] md/raid:md3: device sdd3 operational as raid disk 3
[ 79.323912] md/raid:md3: device sdc3 operational as raid disk 2
[ 79.324299] md/raid:md3: allocated 0kB
[ 79.324548] md/raid:md3: cannot start dirty degraded array.
[ 79.324641] RAID conf printout:
[ 79.324643] --- level:5 rd:4 wd:3
[ 79.324645] disk 1, o:1, dev:sda3
[ 79.324646] disk 2, o:1, dev:sdc3
[ 79.324647] disk 3, o:1, dev:sdd3
[ 79.324930] md/raid:md3: failed to run raid set.
[ 79.324993] md: pers->run() failed ...
[ 79.452721] md/raid:md3: not clean -- starting background reconstruction
[ 79.452734] md/raid:md3: device sda3 operational as raid disk 1
[ 79.452736] md/raid:md3: device sdd3 operational as raid disk 3
[ 79.452738] md/raid:md3: device sdc3 operational as raid disk 2
[ 79.453072] md/raid:md3: allocated 0kB
[ 79.453106] md/raid:md3: cannot start dirty degraded array.
[ 79.453195] RAID conf printout:
[ 79.453197] --- level:5 rd:4 wd:3
[ 79.453198] disk 1, o:1, dev:sda3
[ 79.453200] disk 2, o:1, dev:sdc3
[ 79.453201] disk 3, o:1, dev:sdd3
[ 79.453376] md/raid:md3: failed to run raid set.
[ 79.453439] md: pers->run() failed ...
[ 79.524944] Adding 498024k swap on /dev/sda1. Priority:-1 extents:1 across:498024k FS
[ 79.535051] Adding 498024k swap on /dev/sdc1. Priority:-2 extents:1 across:498024k FS
[ 79.560707] Adding 498024k swap on /dev/sdd1. Priority:-3 extents:1 across:498024k FS
[ 79.787647] init: update-setup-service main process (5303) killed by TERM signal
[ 200.784193] md: export_rdev(sdc2)
[ 200.837808] md: bind<sdc2>
[ 200.973571] RAID1 conf printout:
[ 200.973580] --- wd:2 rd:2
[ 200.973588] disk 0, wo:0, o:1, dev:sdd2
[ 200.973593] disk 1, wo:0, o:1, dev:sda2
[ 201.051416] RAID1 conf printout:
[ 201.051420] --- wd:2 rd:3
[ 201.051424] disk 0, wo:0, o:1, dev:sdd2
[ 201.051426] disk 1, wo:0, o:1, dev:sda2
[ 201.051428] disk 2, wo:1, o:1, dev:sdc2
[ 201.051497] md: recovery of RAID array md0
[ 201.051499] md: minimum _guaranteed_ speed: 50000 KB/sec/disk.
[ 201.051501] md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for recovery.
[ 201.051506] md: using 128k window, over a total of 4883776k.
[ 249.265995] md: md0: recovery done.
[ 249.320521] RAID1 conf printout:
[ 249.320530] --- wd:3 rd:3
[ 249.320537] disk 0, wo:0, o:1, dev:sdd2
[ 249.320542] disk 1, wo:0, o:1, dev:sda2
[ 249.320547] disk 2, wo:0, o:1, dev:sdc2
[100796.359952] md/raid:md3: not clean -- starting background reconstruction
[100796.359984] md/raid:md3: device sda3 operational as raid disk 1
[100796.359990] md/raid:md3: device sdd3 operational as raid disk 3
[100796.359995] md/raid:md3: device sdc3 operational as raid disk 2
[100796.361013] md/raid:md3: allocated 0kB
[100796.361124] md/raid:md3: cannot start dirty degraded array.
[100796.361266] RAID conf printout:
[100796.361272] --- level:5 rd:4 wd:3
[100796.361278] disk 1, o:1, dev:sda3
[100796.361283] disk 2, o:1, dev:sdc3
[100796.361286] disk 3, o:1, dev:sdd3
[100796.362121] md/raid:md3: failed to run raid set.
[100796.362202] md: pers->run() failed ...
Hors ligne
#31 Le 05/07/2021, à 18:38
- geole
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Voir mon message 18 avant de lancer ces trois commandes
sudo mkfs.ext2 -n -t ext2 /dev/md3 sudo mkfs.ext3 -n -t ext3 /dev/md3 sudo mkfs.ext4 -n -t ext4 /dev/md3
La bonne logique voudrait que, pour ne prendre aucun risque, je te demande de dupliquer les trois disques (ou les quatre)
Avec cette capture d'écran, on est certain d'avoir du ext4. Donc uniquement
sudo mkfs.ext4 -n -t ext4 /dev/md3
Peux-tu de nouveau donner ce retour
sudo mdadm --detail /dev/md3
J'ai le message d'erreur.
[ 79.305555] md: kicking non-fresh sdb3 from array!
Dernière modification par geole (Le 05/07/2021, à 21:33)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#32 Le 05/07/2021, à 18:41
- Pat97615
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Je lance mkfs ?
admin@vhs-4:/$ sudo mdadm --detail /dev/md3
/dev/md3:
Version : 1.0
Creation Time : Sat Jan 14 16:21:09 2012
Raid Level : raid5
Used Dev Size : -1
Raid Devices : 4
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Sat Jun 26 19:03:15 2021
State : active, degraded, Not Started
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Name : VHS-4:3
UUID : ab727cf1:4bcd8136:f183c289:e268f49f
Events : 671256
Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 3 1 active sync /dev/sda3
3 8 35 2 active sync /dev/sdc3
4 8 51 3 active sync /dev/sdd3
Hors ligne
#33 Le 05/07/2021, à 18:45
- geole
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
sudo mdadm --examine /dev/sda3 /dev/sdb3 /dev/sdc3 sdd3
je pars manger
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#34 Le 05/07/2021, à 18:46
- Pat97615
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Bon ap et un grand merci pour tout ça!
Hors ligne
#35 Le 05/07/2021, à 18:50
- Pat97615
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
sudo mdadm --examine /dev/sda3 /dev/sdb3 /dev/sdc3 sdd3
admin@vhs-4:/$ sudo mdadm --examine /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3
/dev/sda3:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x0
Array UUID : ab727cf1:4bcd8136:f183c289:e268f49f
Name : VHS-4:3
Creation Time : Sat Jan 14 16:21:09 2012
Raid Level : raid5
Raid Devices : 4
Avail Dev Size : 5849769184 (2789.39 GiB 2995.08 GB)
Array Size : 8774653632 (8368.16 GiB 8985.25 GB)
Used Dev Size : 5849769088 (2789.39 GiB 2995.08 GB)
Super Offset : 5849769440 sectors
State : active
Device UUID : 5a759712:390b8d7b:a11b4bc4:e4d7c622
Update Time : Sat Jun 26 19:03:15 2021
Checksum : 78dba0d4 - correct
Events : 671256
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 1
Array State : .AAA ('A' == active, '.' == missing)
/dev/sdb3:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x0
Array UUID : ab727cf1:4bcd8136:f183c289:e268f49f
Name : VHS-4:3
Creation Time : Sat Jan 14 16:21:09 2012
Raid Level : raid5
Raid Devices : 4
Avail Dev Size : 5849769184 (2789.39 GiB 2995.08 GB)
Array Size : 8774653632 (8368.16 GiB 8985.25 GB)
Used Dev Size : 5849769088 (2789.39 GiB 2995.08 GB)
Super Offset : 5849769440 sectors
State : clean
Device UUID : 860639ba:d703cdcd:5b90c862:589449e5
Update Time : Thu Jun 3 03:29:55 2021
Checksum : d3a01df3 - correct
Events : 667003
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 0
Array State : AAAA ('A' == active, '.' == missing)
/dev/sdc3:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x0
Array UUID : ab727cf1:4bcd8136:f183c289:e268f49f
Name : VHS-4:3
Creation Time : Sat Jan 14 16:21:09 2012
Raid Level : raid5
Raid Devices : 4
Avail Dev Size : 5849769184 (2789.39 GiB 2995.08 GB)
Array Size : 8774653632 (8368.16 GiB 8985.25 GB)
Used Dev Size : 5849769088 (2789.39 GiB 2995.08 GB)
Super Offset : 5849769440 sectors
State : active
Device UUID : 9b41d71e:73d313cf:6876a241:7649af08
Update Time : Sat Jun 26 19:03:15 2021
Checksum : 3be1fb32 - correct
Events : 671256
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 2
Array State : .AAA ('A' == active, '.' == missing)
/dev/sdd3:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x0
Array UUID : ab727cf1:4bcd8136:f183c289:e268f49f
Name : VHS-4:3
Creation Time : Sat Jan 14 16:21:09 2012
Raid Level : raid5
Raid Devices : 4
Avail Dev Size : 5849769184 (2789.39 GiB 2995.08 GB)
Array Size : 8774653632 (8368.16 GiB 8985.25 GB)
Used Dev Size : 5849769088 (2789.39 GiB 2995.08 GB)
Super Offset : 5849769440 sectors
State : active
Device UUID : 7eebfcf2:90d4226f:29a92d0f:e3b74006
Update Time : Sat Jun 26 19:03:15 2021
Checksum : 7b334761 - correct
Events : 671256
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 3
Array State : .AAA ('A' == active, '.' == missing)
Hors ligne
#36 Le 05/07/2021, à 20:33
- geole
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
extraits
admin@vhs-4:/$ sudo mdadm --examine /dev/sda3 /dev/sdb3 /dev/sdc3 /dev/sdd3 /dev/sda3: Update Time : Sat Jun 26 19:03:15 2021 Checksum : 78dba0d4 - correct Events : 671256 /dev/sdb3: Update Time : Thu Jun 3 03:29:55 2021 Checksum : d3a01df3 - correct Events : 667003 /dev/sdc3: Update Time : Sat Jun 26 19:03:15 2021 Checksum : 3be1fb32 - correct Events : 671256 /dev/sdd3: Update Time : Sat Jun 26 19:03:15 2021 Checksum : 7b334761 - correct Events : 671256
On constate que la partition SDB3 n'est plus mise à jour depuis le 3 juin, Elle a donc un retard de 23 jours par rapport aux trois et surtout un déphasage de 4253 événements ( 671256 - 667003)
Je ne saurais pas en trouver la cause. Les logs du 3 juin sont probablement disparus
Donc on repart sur l'idée de remise en état
Obtenir la liste des super blocs
sudo mkfs.ext4 -n -t ext4 /dev/md3
et lancer le fsck de réparation jusqu'à ce que l'un fonctionne
sudo fsck -f -b nnnnnnn /dev/md3
Bon courage
Plus tard, on réinitialisera SDB3
Dernière modification par geole (Le 05/07/2021, à 20:35)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#37 Le 05/07/2021, à 20:43
- Pat97615
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Ok je fais ça.
En attendant je te poste ci-dessous le résultat de 2 commandes que j'ai essayées.
Elles me laissent perplexe...
admin@vhs-4:/$ sudo mdadm --assemble /dev/md0 /dev/sda2 /dev/sdc2 /dev/sdd2 /dev/sdb2 --force
mdadm: /dev/sda2 is busy - skipping
mdadm: /dev/sdc2 is busy - skipping
mdadm: /dev/sdd2 is busy - skipping
mdadm: /dev/md0 is already in use.
admin@vhs-4:/$ ^C
admin@vhs-4:/$ sudo mdadm --stop /dev/md0
mdadm: Cannot get exclusive access to /dev/md0:Perhaps a running process, mounted filesystem or active volume group?
Hors ligne
#38 Le 05/07/2021, à 20:55
- Pat97615
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Donc on repart sur l'idée de remise en état
Obtenir la liste des super blocssudo mkfs.ext4 -n -t ext4 /dev/md3
Voici le retour de la commande "mkfs"
admin@vhs-4:/$ sudo mkfs.ext4 -n -t ext4 /dev/md3
mke2fs 1.42.9 (4-Feb-2014)
mkfs.ext4: Device size reported to be zero. Invalid partition specified, or
partition table wasn't reread after running fdisk, due to
a modified partition being busy and in use. You may need to reboot
to re-read your partition table.
Hors ligne
#39 Le 05/07/2021, à 20:58
- Pat97615
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
A plus tard! Merci et bonne nuit, geole!
Hors ligne
#40 Le 05/07/2021, à 21:15
- geole
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Ok je fais ça.
En attendant je te poste ci-dessous le résultat de 2 commandes que j'ai essayées.
Elles me laissent perplexe...admin@vhs4:/$ sudo mdadm --assemble /dev/md0 /dev/sda2 /dev/sdc2 /dev/sdd2 /dev/sdb2 --force mdadm: /dev/sda2 is busy - skipping mdadm: /dev/sdc2 is busy - skipping mdadm: /dev/sdd2 is busy - skipping mdadm: /dev/md0 is already in use. admin@vhs-4:/$ ^C admin@vhs-4:/$ sudo mdadm --stop /dev/md0 mdadm: Cannot get exclusive access to /dev/md0:Perhaps a running process, mounted filesystem or active volume group?
md0 est la partition raids qui contient le logiciel. Donc impossible à arrêter car en cours d'utilisation. Pour vérifier soit la commande lsblk. C'est la dernière du post n° 5 Soit cette commande
df -h
Dernière modification par geole (Le 05/07/2021, à 21:19)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#41 Le 05/07/2021, à 21:58
- geole
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Voici le retour de la commande "mkfs"
admin@vhs-4:/$ sudo mkfs.ext4 -n -t ext4 /dev/md3 mke2fs 1.42.9 (4-Feb-2014) mkfs.ext4: Device size reported to be zero. Invalid partition specified, or partition table wasn't reread after running fdisk, due to a modified partition being busy and in use. You may need to reboot to re-read your partition table.
Je ne comprends pas trop, Peut-être est-il nécessaire de rebooter
en attendant, voici le début de la liste pour les dix premiers numéros en version 20.04
sudo mkfs.ext4 -n -t ext4 /dev/md66
mke2fs 1.45.5 (07-Jan-2020)
/dev/md66 contient un système de fichiers ext4 étiqueté « md66 »
dernier montage sur /home/a/OUT le Tue Jun 22 13:35:19 2021
Procéder malgré tout ? (o,N) o
En train de créer un système de fichiers avec 7862784 4k blocs et 1966080 i-noeuds.
UUID de système de fichiers=c7f90c0a-f027-4915-8b49-0263890477ab
Superblocs de secours stockés sur les blocs :
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000
Dernière modification par geole (Le 05/07/2021, à 21:59)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#42 Le 06/07/2021, à 09:49
- geole
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Bonjour
Point sur la situation.
A) Ce qu'on sait
1) Les quatre disques sont en bon état. Voir les liens
Pour SDB https://forum.ubuntu-fr.org/viewtopic.p … #p22469728
Pour SDA SDC et SDD https://forum.ubuntu-fr.org/viewtopic.p … #p22469898
2) La partition SDB3 a cessé d'être utilisée le 3 juin et les autres le 26 juin. Voir ce lien
https://forum.ubuntu-fr.org/viewtopic.p … #p22469984
Question: As-tu fait quelques boots entre le 3 juin et le 26 juin?
3) Il y a eu un gros incident début juillet avec au moins la carte télévision. Voir ce lien
https://forum.ubuntu-fr.org/viewtopic.p … #p22469707
4) La commande mdadm --run ne fonctionne pas. Voir ce lien
https://forum.ubuntu-fr.org/viewtopic.p … #p22469935
=> erreur d'entrée sortie mais rien n'est visible dans la trace. Voir ce lien
https://forum.ubuntu-fr.org/viewtopic.p … #p22469956
5) La commande fsck ne fonctionne pas; Voir ce lien
https://forum.ubuntu-fr.org/viewtopic.p … #p22469932
==> Cela cache certainement un gros problème que je ne sais pas identifier
6) Il n'y a pas de double des données
7) J'atteins ma limite de compétence pour remettre en route sans risque
B) Ma première proposition
Demander l'avis d'un expert.
Vu ta situation géographique, un dépannage en ligne serait le bienvenu. Il pourrait indiquer des commandes dont il a parfaitement identifié les conséquences
Je te conseille donc de prendre contact avec RMY Voir ces liens
https://doc.ubuntu-fr.org/utilisateurs/rmy
https://forum.ubuntu-fr.org/viewtopic.php?id=447877
https://forum.ubuntu-fr.org/viewtopic.p … #p12584071
https://forum.ubuntu-fr.org/viewtopic.p … #p22407331
il suffit que tu le contactes par EMAIL
Tu cliques sur ce lien https://forum.ubuntu-fr.org/profile.php?id=20551
puis sur "envoyer un email" en lui donnant cette récapitulation. Lien => https://forum.ubuntu-fr.org/viewtopic.p … #p22470098
La suite se passera en privé.
C) Ma seconde proposition si tu es d'accord.
Dupliquer les trois disques SDA SDC SDD,
Je te guiderais. D'abord avec la commande dd car ddrescue est inutilisable vu que tu es en version 14.04
J'ai noté que tu avais déjà un disque de secours, Il faudrait donc que tu en achètes deux autres.
Si ta partition arrive à saturation, cela sera le moment d'envisager l'achat de disques de 4 To ou plus au lieu de 3 To suivant ton budget .
il faut prévoir une dizaine d'heures pour dupliquer un disque si tout est parfait.
NOTA. Il est possible que l'expert te demande aussi une sauvegarde.
Donne déjà ce retour pour identifier parfaitement les quatre disques
ls -ls /dev/disk/by-id
D) Deux types de réparation que je sais proposer
1) Dire de démarrer en reprenant à la date du trois juin. C'est une option à mettre
====> --force -f : Assemble the array even if some superblocks appear out-of-date. This involves modifying the superblocks.
(je chercherais)
Mais, je n'en connais pas trop les conséquences: Perte de 4233 Fichiers? Et problème pas résolu.
2) Dire de virer la partition SDB3 et de la reconstruire
Mais je ne sais pas trop si, dans cette situation, la commande sera acceptée et si oui, si cela sera suffisant pour réparer car je crains un autre problème masqué jusqu'alors.
Donc dans les deux cas, utilisation de la sauvegarde pour remise en état soit 30 heures de remise en état.
E) Point sur la version 14.04
J'aimerais savoir si tu disposes d'un autre disque classique pour une éventuelle installation de la version 20.04
F) Dans l'hypothèse d'un gros incident.
Tu devrais télécharger la version 20.04 ( https://releases.ubuntu.com/ ) , fabriquer un support d'installation ( https://doc.ubuntu-fr.org/ventoy ) et voir s'il est bootable. Cela permettrait de travailler éventuellement en live USB et d'utiliser la dernière version de tesdisk pour voir ses conclusions.
G) Erreur de frappe
Je viens de constater que tu as frappé
sudo journalct1 -b | grep md0
au lieu de
sudo journalctl -b | grep md0
du coup, refais donc
sudo journalctl | grep md3
Dernière modification par geole (Le 06/07/2021, à 18:46)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#43 Le 06/07/2021, à 12:54
- Pat97615
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Bonjour geole,
Impressionnant ce récapitulatif!
Pour les questions:
As-tu fait quelques boots entre le 3 juin et le 26 juin?
Oui il y en a eu plusieurs! Mais surtout, fin juin le serveur s'est éteint tout seul et en l'allumant, pendant le boot
il s'éteignait de nouveau tout seul. Il l'a fait plusieurs fois après chaque tentative jusqu'à ce que je l'ouvre pour vérifier les ventilos, les
condensateurs, les connexions. Je voulais voir s'il chauffait et si les coupures venaient de là. J'ai démonté la carte tv à ce moment.
Je l'ai rebranché et il est reparti. J'ai pu y mettre des fichiers et regarder des vidéos qui y étaient stockées.
Ensuite il a dû s'éteindre à nouveau et je me suis retrouvé dans la situation actuelle.
Dupliquer les trois disques SDA SDC SDD,
J'ai bien 2 disques WD RED 3.0 TB neufs, il me reste à voir si je peux trouver un équivalent à Mayotte.
Ce serait une sacrée précaution de pouvoir dupliquer les disques A, C et D, surtout que le raid est sensé reconstruire le B avec les 3 autres.
Les C et D sont les disques les plus vieux...Le B était un WD RED de 2019!
Pour l'expansion du volume qui devient nécessaire, je pensais remplacer graduellement les 3TO défaillants par des 6 TO, mais...
Si je ne me trompe, en 2012, date de création du raid, l'OS était en 32 bits ce qui limite la grappe raid à 16TO.
Alors si je voulais monter à 24 TO avec 4 disques de 6TO je pensais faire ça:
Sauvegarder sur un disque externe/supprimer des données du serveur pour réduire la quantité à 6To
Remplacer le disque défectueux par un disque de 6To
Sauvegarder intégralement les 6To de données qui restent sur le nouveau disque
Insèrer le 3ième disque de 6To et créer une grappe RAID 5 dégradé avec deux disques de 6To (le premier remplacé et le neuf)
Formater cette grappe RAID en 64 bits
Recopier les 6To de données sur la nouvelle grappe RAID
Enfin, insèrer le disque de 6To ou se trouvait la sauvegarde dans la grappe RAID pour obtenir une grappe RAID 5 de 3 disques de 6To sécurisée offrant 12To d'espace de stockage et formatée en 64bits
Puis ajouter un 4ième disque de 6To pour étendre la grappe RAID pour avoir 18To d'espace de stockage.
Pour compléter ces perspectives, je songe à faire évoluer ce serveur ou en monter un plus puissant qui puisse être mis à jour, notamment....
Le problème reste la récupération des données.
Sinon, avant d'entreprendre des opérations longues sur les disques, je vais remplacer mon onduleur qui ne me semble plus fiable du tout!
Je dois donc trouver les DD qui conviennent et un onduleur sur Mayotte où tout est plus compliqué à trouver!
J'aimerais savoir si tu disposes d'un autre disque classique pour une éventuelle installation de la version 20.04
L'OS du serveur me semble être sur la clé USB branchée derrière le serveur qui boot dessus (sde): est-ce que tu penses à ce stockage
en parlant d'upgrader Ubuntu sur un autre disque classique?
Je peux sans doute faire une clé de boot avec Ubuntu 20.04
Ok, je refais sudo journalctl | grep md3
Est-ce que l'OS sur la clé, avec son gestionnaire de disque et l'interface navigateur, ne pourrait-il pas être responsable du blocage de certaines commandes?
Grand merci pour tout ce boulot!
Hors ligne
#44 Le 06/07/2021, à 13:01
- Pat97615
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
sudo journalctl | grep md3
admin@vhs-4:/$ sudo journalctl | grep md3
[sudo] password for admin:
sudo: journalctl: command not found
admin@vhs-4:/$ sudo journalctl -b | grep md3
sudo: journalctl: command not found
Hors ligne
#45 Le 06/07/2021, à 13:24
- geole
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
réponses rapides
Tu n'as aucun disque défectueux
Je vois que tu as déjà deux disques, Pour le troisième à acheter, on se moque de sa marque
La seule contrainte est que sa taille soit au minima de
User Capacity: 3,000,592,982,016 bytes [3.00 TB]
Je comprends maintenant que le disque SDE contient le logiciel du RAID du constructeur
Tu dis qu'il est en 32 bits et que cela limite la taille a 16 TO
Du coup, Peux-tu donner ce retour afin de voir s'il est aussi utilisable pour autre chose.
sudo parted /dev/sde unit MiB print free
Est-ce que l'OS sur la clé, avec son gestionnaire de disque et l'interface navigateur, ne pourrait-il pas être responsable du blocage de certaines commandes?
Non. il n'y a pas de lien La commande journalctl n'existait certainement pas en version 14.04
Remplacer le disque défectueux par un disque de 6To
Sauvegarder intégralement les 6To de données qui restent sur le nouveau disque
Tu te trompe
Ton raids est composé de 4 partitions de 2,7 TiO en RAIDS-5
Le principe du RAIDS est de mettre de la sécurité répartie par morceaux sur tous les disques pour un équivalent de 1 disque
Soit dont une taille maxima de données potentielles de
2,7 * (4-1) = 8,1 TiO on peut arrondir a 9 To
Mais lorsque tu enlèves un disque, tu n'as rien perdu en données, tu te faut donc un disque d'au moins 8 To et pas 6 To pour tout sauver d'un seul coup.!!!!!!!
Tu peux effectivement tout décharger logiquement par répertoire sur plusieurs disques afin de rebatir entièrement ou tu peux remplacer disque par disque . Je te renvoie à la documentation
Paragraphe 5.2 https://doc.ubuntu-fr.org/raid_logiciel … es_disques
Ce serait une sacrée précaution de pouvoir dupliquer les disques A, C et D, surtout que le raid est sensé reconstruire le B avec les 3 autres.
Les C et D sont les disques les plus vieux...Le B était un WD RED de 2019!
Je te propose de commencer pour sécuriser la suite
1) Tu donnes le retour de cette commande
ls -ls /dev/disk/by-id
2) Tu enlève le disque SDB que tu sais identifier
3) Tu y mets un de tes disques neufs
4) On regarde l'état du disque neuf
sudo smartctl -s on -a /dev/sdb
5) Tu Redonnes de nouveau cette commande
ls -ls /dev/disk/by-id
6) Je te fournirais alors la commande dd à faire.
Bon courage.
Dernière modification par geole (Le 06/07/2021, à 13:52)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#46 Le 06/07/2021, à 14:44
- Pat97615
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
De retour!
Hors ligne
#47 Le 06/07/2021, à 14:59
- Pat97615
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
admin@vhs-4:/$ sudo parted /dev/sde unit Mib print free
Error: Could not stat device /dev/sde - No such file or directory.
Retry/Cancel? cancel
admin@vhs-4:/$ sudo parted /dev/sde1 unit print free
Error: Could not stat device /dev/sde1 - No such file or directory.
Retour de la commande ls
admin@vhs-4:/$ sudo ls -ls /dev/disk/by-id
total 0
0 lrwxrwxrwx 1 root root 9 Jul 5 14:36 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0NLY2PK -> ../../sda
0 lrwxrwxrwx 1 root root 10 Jul 4 14:29 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0NLY2PK-part1 -> ../../sda1
0 lrwxrwxrwx 1 root root 10 Jul 4 14:32 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0NLY2PK-part2 -> ../../sda2
0 lrwxrwxrwx 1 root root 10 Jul 4 14:30 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0NLY2PK-part3 -> ../../sda3
0 lrwxrwxrwx 1 root root 9 Jul 5 17:07 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0NLY38Y -> ../../sdb
0 lrwxrwxrwx 1 root root 10 Jul 4 14:29 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0NLY38Y-part1 -> ../../sdb1
0 lrwxrwxrwx 1 root root 10 Jul 4 14:29 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0NLY38Y-part2 -> ../../sdb2
0 lrwxrwxrwx 1 root root 10 Jul 4 14:30 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0NLY38Y-part3 -> ../../sdb3
0 lrwxrwxrwx 1 root root 9 Jul 4 14:29 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1565484 -> ../../sdd
0 lrwxrwxrwx 1 root root 10 Jul 4 14:29 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1565484-part1 -> ../../sdd1
0 lrwxrwxrwx 1 root root 10 Jul 4 14:32 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1565484-part2 -> ../../sdd2
0 lrwxrwxrwx 1 root root 10 Jul 4 14:30 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1565484-part3 -> ../../sdd3
0 lrwxrwxrwx 1 root root 9 Jul 5 14:43 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1652173 -> ../../sdc
0 lrwxrwxrwx 1 root root 10 Jul 4 14:29 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1652173-part1 -> ../../sdc1
0 lrwxrwxrwx 1 root root 10 Jul 4 14:32 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1652173-part2 -> ../../sdc2
0 lrwxrwxrwx 1 root root 10 Jul 4 14:30 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1652173-part3 -> ../../sdc3
0 lrwxrwxrwx 1 root root 9 Jul 5 21:37 md-name-system:upgrade -> ../../md0
0 lrwxrwxrwx 1 root root 9 Jul 5 21:37 md-uuid-9a995d76:588623a7:3b1a8f08:1b6292c6 -> ../../md0
0 lrwxrwxrwx 1 root root 9 Jul 4 14:29 usb-090c_MINI_KEY_11061525000195-0:0 -> ../../sde
0 lrwxrwxrwx 1 root root 10 Jul 4 14:29 usb-090c_MINI_KEY_11061525000195-0:0-part1 -> ../../sde1
0 lrwxrwxrwx 1 root root 9 Jul 5 14:43 wwn-0x50014ee2066aefb4 -> ../../sdc
0 lrwxrwxrwx 1 root root 10 Jul 4 14:29 wwn-0x50014ee2066aefb4-part1 -> ../../sdc1
0 lrwxrwxrwx 1 root root 10 Jul 4 14:32 wwn-0x50014ee2066aefb4-part2 -> ../../sdc2
0 lrwxrwxrwx 1 root root 10 Jul 4 14:30 wwn-0x50014ee2066aefb4-part3 -> ../../sdc3
0 lrwxrwxrwx 1 root root 9 Jul 5 17:07 wwn-0x50014ee2111a2902 -> ../../sdb
0 lrwxrwxrwx 1 root root 10 Jul 4 14:29 wwn-0x50014ee2111a2902-part1 -> ../../sdb1
0 lrwxrwxrwx 1 root root 10 Jul 4 14:29 wwn-0x50014ee2111a2902-part2 -> ../../sdb2
0 lrwxrwxrwx 1 root root 10 Jul 4 14:30 wwn-0x50014ee2111a2902-part3 -> ../../sdb3
0 lrwxrwxrwx 1 root root 9 Jul 4 14:29 wwn-0x50014ee25bb53093 -> ../../sdd
0 lrwxrwxrwx 1 root root 10 Jul 4 14:29 wwn-0x50014ee25bb53093-part1 -> ../../sdd1
0 lrwxrwxrwx 1 root root 10 Jul 4 14:32 wwn-0x50014ee25bb53093-part2 -> ../../sdd2
0 lrwxrwxrwx 1 root root 10 Jul 4 14:30 wwn-0x50014ee25bb53093-part3 -> ../../sdd3
0 lrwxrwxrwx 1 root root 9 Jul 5 14:36 wwn-0x50014ee2666f6679 -> ../../sda
0 lrwxrwxrwx 1 root root 10 Jul 4 14:29 wwn-0x50014ee2666f6679-part1 -> ../../sda1
0 lrwxrwxrwx 1 root root 10 Jul 4 14:32 wwn-0x50014ee2666f6679-part2 -> ../../sda2
0 lrwxrwxrwx 1 root root 10 Jul 4 14:30 wwn-0x50014ee2666f6679-part3 -> ../../sda3
Je permute les disques...
Hors ligne
#48 Le 06/07/2021, à 15:14
- Pat97615
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Voici le retour de smartctl pour le disque sdb neuf:
admin@vhs-4:/$ sudo smartctl -s on -a /dev/sdb
[sudo] password for admin:
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.16.0-31-generic] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Western Digital Red (AF)
Device Model: WDC WD30EFRX-68EUZN0
Serial Number: WD-WCC4N2ARV3X4
LU WWN Device Id: 5 0014ee 2640ebef8
Firmware Version: 82.00A82
User Capacity: 3,000,592,982,016 bytes [3.00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Rotation Rate: 5400 rpm
Device is: In smartctl database [for details use: -P show]
ATA Version is: ACS-2 (minor revision not indicated)
SATA Version is: SATA 3.0, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is: Tue Jul 6 16:12:07 2021 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: (38640) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 388) minutes.
Conveyance self-test routine
recommended polling time: ( 5) minutes.
SCT capabilities: (0x703d) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 100 253 051 Pre-fail Always - 0
3 Spin_Up_Time 0x0027 100 253 021 Pre-fail Always - 0
4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 4
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 100 253 000 Old_age Always - 0
9 Power_On_Hours 0x0032 100 100 000 Old_age Always - 27
10 Spin_Retry_Count 0x0032 100 253 000 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 100 253 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 4
192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 0
193 Load_Cycle_Count 0x0032 200 200 000 Old_age Always - 36
194 Temperature_Celsius 0x0022 119 108 000 Old_age Always - 31
196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0030 100 253 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0
200 Multi_Zone_Error_Rate 0x0008 100 253 000 Old_age Offline - 0
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
No self-tests have been logged. [To run self-tests, use: smartctl -t]
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
Hors ligne
#49 Le 06/07/2021, à 15:16
- Pat97615
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
Retour de la commande ls avec le disque neuf sdb
admin@vhs-4:/$ sudo ls -ls /dev/disk/by-id
total 0
0 lrwxrwxrwx 1 root root 9 Jul 6 16:11 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0NLY2PK -> ../../sda
0 lrwxrwxrwx 1 root root 10 Jul 6 16:08 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0NLY2PK-part1 -> ../../sda1
0 lrwxrwxrwx 1 root root 10 Jul 6 16:11 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0NLY2PK-part2 -> ../../sda2
0 lrwxrwxrwx 1 root root 10 Jul 6 16:09 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0NLY2PK-part3 -> ../../sda3
0 lrwxrwxrwx 1 root root 9 Jul 6 16:11 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2ARV3X4 -> ../../sdb
0 lrwxrwxrwx 1 root root 9 Jul 6 16:11 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1565484 -> ../../sdd
0 lrwxrwxrwx 1 root root 10 Jul 6 16:08 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1565484-part1 -> ../../sdd1
0 lrwxrwxrwx 1 root root 10 Jul 6 16:11 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1565484-part2 -> ../../sdd2
0 lrwxrwxrwx 1 root root 10 Jul 6 16:09 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1565484-part3 -> ../../sdd3
0 lrwxrwxrwx 1 root root 9 Jul 6 16:11 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1652173 -> ../../sdc
0 lrwxrwxrwx 1 root root 10 Jul 6 16:08 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1652173-part1 -> ../../sdc1
0 lrwxrwxrwx 1 root root 10 Jul 6 16:11 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1652173-part2 -> ../../sdc2
0 lrwxrwxrwx 1 root root 10 Jul 6 16:09 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1652173-part3 -> ../../sdc3
0 lrwxrwxrwx 1 root root 9 Jul 6 16:11 md-name-system:upgrade -> ../../md0
0 lrwxrwxrwx 1 root root 9 Jul 6 16:11 md-uuid-9a995d76:588623a7:3b1a8f08:1b6292c6 -> ../../md0
0 lrwxrwxrwx 1 root root 9 Jul 6 16:08 usb-090c_MINI_KEY_11061525000195-0:0 -> ../../sde
0 lrwxrwxrwx 1 root root 10 Jul 6 16:08 usb-090c_MINI_KEY_11061525000195-0:0-part1 -> ../../sde1
0 lrwxrwxrwx 1 root root 9 Jul 6 16:11 wwn-0x50014ee2066aefb4 -> ../../sdc
0 lrwxrwxrwx 1 root root 10 Jul 6 16:08 wwn-0x50014ee2066aefb4-part1 -> ../../sdc1
0 lrwxrwxrwx 1 root root 10 Jul 6 16:11 wwn-0x50014ee2066aefb4-part2 -> ../../sdc2
0 lrwxrwxrwx 1 root root 10 Jul 6 16:09 wwn-0x50014ee2066aefb4-part3 -> ../../sdc3
0 lrwxrwxrwx 1 root root 9 Jul 6 16:11 wwn-0x50014ee25bb53093 -> ../../sdd
0 lrwxrwxrwx 1 root root 10 Jul 6 16:08 wwn-0x50014ee25bb53093-part1 -> ../../sdd1
0 lrwxrwxrwx 1 root root 10 Jul 6 16:11 wwn-0x50014ee25bb53093-part2 -> ../../sdd2
0 lrwxrwxrwx 1 root root 10 Jul 6 16:09 wwn-0x50014ee25bb53093-part3 -> ../../sdd3
0 lrwxrwxrwx 1 root root 9 Jul 6 16:11 wwn-0x50014ee2640ebef8 -> ../../sdb
0 lrwxrwxrwx 1 root root 9 Jul 6 16:11 wwn-0x50014ee2666f6679 -> ../../sda
0 lrwxrwxrwx 1 root root 10 Jul 6 16:08 wwn-0x50014ee2666f6679-part1 -> ../../sda1
0 lrwxrwxrwx 1 root root 10 Jul 6 16:11 wwn-0x50014ee2666f6679-part2 -> ../../sda2
0 lrwxrwxrwx 1 root root 10 Jul 6 16:09 wwn-0x50014ee2666f6679-part3 -> ../../sda3
Hors ligne
#50 Le 06/07/2021, à 15:47
- geole
Re : Sauvetage NAS Dirty Degraded Array sur Raid 5 4 disques de 3 To
extrait des commandes AVANT
admin@vhs-4:/$ sudo ls -ls /dev/disk/by-id
total 0
0 lrwxrwxrwx 1 root root 9 Jul 5 14:36 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0NLY2PK -> ../../sda
0 lrwxrwxrwx 1 root root 9 Jul 5 17:07 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0NLY38Y -> ../../sdb
0 lrwxrwxrwx 1 root root 9 Jul 4 14:29 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1565484 -> ../../sdd
0 lrwxrwxrwx 1 root root 9 Jul 5 14:43 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1652173 -> ../../sdc
0 lrwxrwxrwx 1 root root 9 Jul 5 14:43 wwn-0x50014ee2066aefb4 -> ../../sdc
0 lrwxrwxrwx 1 root root 9 Jul 5 17:07 wwn-0x50014ee2111a2902 -> ../../sdb
0 lrwxrwxrwx 1 root root 9 Jul 4 14:29 wwn-0x50014ee25bb53093 -> ../../sdd
0 lrwxrwxrwx 1 root root 9 Jul 5 14:36 wwn-0x50014ee2666f6679 -> ../../sda
Le smartcl montre que le nouveau disque est en bon état et a une taille identique. La documentation évoque un buffer de 64 Mo.
extrait des commandes APRES
admin@vhs-4:/$ sudo ls -ls /dev/disk/by-id
total 0
0 lrwxrwxrwx 1 root root 9 Jul 6 16:11 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N0NLY2PK -> ../../sda
0 lrwxrwxrwx 1 root root 9 Jul 6 16:11 ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2ARV3X4 -> ../../sdb
0 lrwxrwxrwx 1 root root 9 Jul 6 16:11 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1565484 -> ../../sdd
0 lrwxrwxrwx 1 root root 9 Jul 6 16:11 ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1652173 -> ../../sdc
0 lrwxrwxrwx 1 root root 9 Jul 6 16:11 wwn-0x50014ee2066aefb4 -> ../../sdc
0 lrwxrwxrwx 1 root root 9 Jul 6 16:11 wwn-0x50014ee25bb53093 -> ../../sdd
0 lrwxrwxrwx 1 root root 9 Jul 6 16:11 wwn-0x50014ee2640ebef8 -> ../../sdb
0 lrwxrwxrwx 1 root root 9 Jul 6 16:11 wwn-0x50014ee2666f6679 -> ../../sda
On constate bien un changement de référence pour le disque SDB.
Maintenant, on va travailler avec l'identifiant unique du disque
Grâce à cela, si on doit restaurer les disques et que tu te trompes d'emplacement ( les SDA SDB SDC SDD changent mais les UUID restent identiques) . on ne se trompera pas dans les disques
Donc copie du disque SDC dans le disque SDB.
Cette commande est à faire en copier/coller
sudo dd if=/dev/disk/by-id/ata-WDC_WD30EZRX-00MMMB0_WD-WCAWZ1652173 of=/dev/disk/by-id/ata-WDC_WD30EFRX-68EUZN0_WD-WCC4N2ARV3X4 bs=8M conv=notrunc,noerror status=progress
Voir paragraphe 2.3 de https://doc.ubuntu-fr.org/dd#cloner_un_ … _en_entier
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne