#51 Le 09/02/2021, à 12:56
- webangel
Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04
Merci geole je m'y colle de suite.
Je relance le 1er tiers.
Résultat du 1er tiers.
sudo dd if=/dev/sdf of=/dev/null bs=1MB count=1000000 status=progress
999881000000 octets (1,0 TB, 931 GiB) copiés, 7098 s, 141 MB/s
1000000+0 enregistrements lus
1000000+0 enregistrements écrits
1000000000000 octets (1,0 TB, 931 GiB) copiés, 7099,32 s, 141 MB/s
Résultat de smartctl
sudo smartctl -a /dev/sdf
[sudo] Mot de passe de jeff :
smartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.4.0-65-generic] (local build)
Copyright (C) 2002-19, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Western Digital Green
Device Model: WDC WD30EZRX-00DC0B0
Serial Number: WD-WMC1T1801757
LU WWN Device Id: 5 0014ee 60308f2af
Firmware Version: 80.00A80
User Capacity: 3000592982016 bytes [3,00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Device is: In smartctl database [for details use: -P show]
ATA Version is: ACS-2 (minor revision not indicated)
SATA Version is: SATA 3.0, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is: Tue Feb 9 14:55:43 2021 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x82) Offline data collection activity
was completed without error.
Auto Offline Data Collection: Enabled.
Self-test execution status: ( 17) The self-test routine was aborted by
the host.
Total time to complete Offline
data collection: (41160) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 413) minutes.
Conveyance self-test routine
recommended polling time: ( 5) minutes.
SCT capabilities: (0x70b5) SCT Status supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 5
3 Spin_Up_Time 0x0027 197 179 021 Pre-fail Always - 5116
4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 122
5 Reallocated_Sector_Ct 0x0033 193 193 140 Pre-fail Always - 218
7 Seek_Error_Rate 0x002e 100 253 000 Old_age Always - 0
9 Power_On_Hours 0x0032 008 008 000 Old_age Always - 67542
10 Spin_Retry_Count 0x0032 100 100 000 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 121
192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 68
193 Load_Cycle_Count 0x0032 197 197 000 Old_age Always - 9914
194 Temperature_Celsius 0x0022 110 088 000 Old_age Always - 40
196 Reallocated_Event_Count 0x0032 123 123 000 Old_age Always - 77
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 1
198 Offline_Uncorrectable 0x0030 200 200 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0
200 Multi_Zone_Error_Rate 0x0008 200 200 000 Old_age Offline - 1
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Selective offline Aborted by host 10% 1955 -
# 2 Selective offline Interrupted (host reset) 10% 1938 -
# 3 Selective offline Aborted by host 10% 1931 -
# 4 Selective offline Aborted by host 10% 1912 -
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 1999999999 Aborted_by_host [10% left] (51419312-51484847)
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
Il reste encore le current_pending_sector à 1
Dernière modification par webangel (Le 09/02/2021, à 15:51)
Hors ligne
#52 Le 09/02/2021, à 15:58
- geole
Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04
A croire que c'est une mauvaise gestion des secteurs illisibles et que c'est un résidu.
Je pense que tu peux réinjecter le disque dans le raid et laisser tourner le temps qu'il faudra pour la reconstruction.
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
En ligne
#53 Le 09/02/2021, à 16:07
- webangel
Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04
Résultats de dmesg
dmesg | tail -20
[187567.805229] sdf: sdf1
[187574.495890] Alternate GPT is invalid, using primary GPT.
[187574.495904] sdf: sdf1
[187574.730260] sdf: sdf1
[187640.978473] sdf: sdf1
[187689.311970] systemd-sysv-generator[11942]: stat() failed on /etc/init.d/screen-cleanup, ignoring: No such file or directory
[187701.239100] systemd-sysv-generator[12106]: stat() failed on /etc/init.d/screen-cleanup, ignoring: No such file or directory
[187720.420765] sdf: sdf1
[187876.981909] sdf:
[187907.882706] sdf:
[187949.382969] sdf:
[188018.012327] GPT:partition_entry_array_crc32 values don't match: 0xab54d286 != 0x15d6daca
[188018.012332] GPT: Use GNU Parted to correct GPT errors.
[188018.012365] sdf:
[188018.283007] sdf: sdf1
[188018.893212] sdf: sdf1
[188105.928250] sdf: sdf1
[188373.642305] systemd-sysv-generator[13731]: stat() failed on /etc/init.d/screen-cleanup, ignoring: No such file or directory
[188788.405524] usb 4-3: USB disconnect, device number 2
[232182.141724] md: data-check of RAID array md127
Merci, ok je vais réintégrer sdf1 dans la grappe à toute.
Reintegration avec mdadm
sudo mdadm --manage /dev/md127 --add /dev/sdf1
mdadm: added /dev/sdf1
un petit mdstat pour l'avancement
sudo cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md127 : active raid6 sdf1[9](S) sdg1[8] sdb1[7] sda1[6] sdd1[3] sde1[4] sdc[10]
14650670080 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/6] [UUUUU_U]
[=>...................] check = 7.0% (205758652/2930134016) finish=21436.4min speed=2117K/sec
Dernière modification par webangel (Le 09/02/2021, à 16:25)
Hors ligne
#54 Le 09/02/2021, à 16:13
- geole
Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04
Cela ne ne semble pas normal dans la trace
[187574.495890] Alternate GPT is invalid, using primary GPT.
Mais peut-être as-tu fait la correction?
Dernière modification par geole (Le 09/02/2021, à 16:35)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
En ligne
#55 Le 09/02/2021, à 16:28
- webangel
Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04
Oui ça avait été corriger via gparted je l'avais bien remis en GPT partition Principal.
sudo cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md127 : active raid6 sdf1[9] sdg1[8] sdb1[7] sda1[6] sdd1[3] sde1[4] sdc[10]
14650670080 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/6] [UUUUU_U]
[>....................] recovery = 1.0% (31540572/2930134016) finish=22812.0min speed=2117K/sec
unused devices: <none>
En effet il y a un problème, ce serait fini dans environs 380 heures soit 15 jours, alors que ça devrait normalement mettre environs 20 heures, geole as tu une autre idée?
Dernière modification par webangel (Le 09/02/2021, à 21:17)
Hors ligne
#56 Le 09/02/2021, à 21:41
- webangel
Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04
D'après toi, est ce qu'il serait plus raisonnable ou pas d'arrêter la reconstruction et puis de remplacer sdf par un autre des disques neufs?
Hors ligne
#57 Le 09/02/2021, à 22:58
- geole
Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04
Pour le moment, laisse tourner. Je pense que ce n'est pas sdf qui ralentit le process. On a vu sa vitesse d'écriture dans les remises à zéro. Je ne sais pas comment savoir quel disque ralentit la reconstruction.
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
En ligne
#58 Le 09/02/2021, à 23:25
- webangel
Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04
Oui tu as raison, il y a un disque qui ralentit le débit, comme tu l'avais souligné dans un post #4 au début c'est sdg
qui est peut-être la cause du ralentissement de la reconstruction, au vu des erreurs constatées?
Je te cite geole:
sudo smartctl -a /dev/sdg
=== START OF INFORMATION SECTION ===
Model Family: Seagate Barracuda 7200.14 (AF)
Device Model: ST3000DM001-1ER166
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x000f 119 099 006 Pre-fail Always - 233268584
5 Reallocated_Sector_Ct 0x0033 100 100 010 Pre-fail Always - 0
7 Seek_Error_Rate 0x000f 066 060 030 Pre-fail Always - 4490593
9 Power_On_Hours 0x0032 039 039 000 Old_age Always - 53881
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 0
Un disque plus récent mais avec une mécanique de mauvaise qualité qui doit ralentir de débit de l'ensemble. Mais rien de grave. À regarder son évolution tous les six mois. Ce n'était pas une bonne "pioche"
Dernière modification par webangel (Le 10/02/2021, à 11:31)
Hors ligne
#59 Le 10/02/2021, à 15:18
- geole
Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04
Je viens de simuler ton contexte
1) Création d'un RAID6 composé de 7 partitions de 25 Go chacune.
2) Remplissage à 100% de ce raid . Ce qui prend environ 3 heures.
3) Simulation d'une panne et réinjection de la partition. Ce qui entraîne la remise en état.
a@b:~$ sudo cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md50 : active raid6 sdd7[7] sdd10[6] sdd9[5] sdd8[4] sdd6[2] sdd5[1] sdd4[0]
129751040 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/6] [UUU_UUU]
[>....................] recovery = 0.2% (75648/25950208) finish=142.4min speed=3025K/sec
4) Constat. Cela est estimé à plus de deux heures pour 25 Go! Disons 10 go par heure....
sudo cat /proc/mdstat | grep recovery
[=>...................] recovery = 8.0% (2080644/25950208) finish=109.4min speed=3635K/sec
5) Prochain test: En déclarer deux HS.
a@b:~$ lsblk -fe7 -o +size /dev/sdd
NAME FSTYPE LABEL UUID FSAVAIL FSUSE% MOUNTPOINT SIZE
sdd 189,9G
├─sdd1 32M
├─sdd2 vfat 4B6D-0A9E 512M
├─sdd3 ext4 eb69513c-8cbc-4f19-a182-a0cd98672776 16G
├─sdd4 linux_raid_member b:50 cf43ed28-45e6-8e27-639d-9c441d923b10 24,8G
│ └─md50 ext4 fe3d1f29-9367-4d93-818c-16b5c2d37b40 0 100% /media/RAID50 123,8G
├─sdd5 linux_raid_member b:50 cf43ed28-45e6-8e27-639d-9c441d923b10 24,8G
│ └─md50 ext4 fe3d1f29-9367-4d93-818c-16b5c2d37b40 0 100% /media/RAID50 123,8G
├─sdd6 linux_raid_member b:50 cf43ed28-45e6-8e27-639d-9c441d923b10 24,8G
│ └─md50 ext4 fe3d1f29-9367-4d93-818c-16b5c2d37b40 0 100% /media/RAID50 123,8G
├─sdd7 linux_raid_member b:50 cf43ed28-45e6-8e27-639d-9c441d923b10 24,8G
│ └─md50 ext4 fe3d1f29-9367-4d93-818c-16b5c2d37b40 0 100% /media/RAID50 123,8G
├─sdd8 linux_raid_member b:50 cf43ed28-45e6-8e27-639d-9c441d923b10 24,8G
│ └─md50 ext4 fe3d1f29-9367-4d93-818c-16b5c2d37b40 0 100% /media/RAID50 123,8G
├─sdd9 linux_raid_member b:50 cf43ed28-45e6-8e27-639d-9c441d923b10 24,8G
│ └─md50 ext4 fe3d1f29-9367-4d93-818c-16b5c2d37b40 0 100% /media/RAID50 123,8G
└─sdd10 linux_raid_member b:50 cf43ed28-45e6-8e27-639d-9c441d923b10 24,8G
└─md50 ext4 fe3d1f29-9367-4d93-818c-16b5c2d37b40 0 100% /media/RAID50 123,8G
a@b:~$
a@b:~$ sudo mdadm --manage /dev/md50 --set-faulty /dev/sdd6
mdadm: set /dev/sdd6 faulty in /dev/md50
a@b:~$ sudo mdadm --manage /dev/md50 --remove /dev/sdd6
mdadm: hot removed /dev/sdd6 from /dev/md50
a@b:~$ sudo mdadm --manage /dev/md50 --set-faulty /dev/sdd8
mdadm: set /dev/sdd8 faulty in /dev/md50
a@b:~$ sudo mdadm --manage /dev/md50 --remove /dev/sdd8
mdadm: hot removed /dev/sdd8 from /dev/md50
a@b:~$ sudo umount /dev/md50
a@b:~$ sudo mount /dev/md50 /media/RAID50
a@b:~$ cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md50 : active raid6 sdd7[7] sdd10[6] sdd9[5] sdd5[1] sdd4[0]
129751040 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/5] [UU_U_UU]
...
a@b:~$ sudo ls -Rls /media/RAID50
/media/RAID50:
total 24
........
a@b:~$ date
mer. 10 févr. 2021 17:38:28 CET
a@b:~$ sudo mdadm --manage /dev/md50 --add /dev/sdd6
mdadm: added /dev/sdd6
a@b:~$ date
mer. 10 févr. 2021 17:38:28 CET
a@b:~$ sudo mdadm --manage /dev/md50 --add /dev/sdd8
mdadm: added /dev/sdd8
a@b:~$ date
mer. 10 févr. 2021 17:38:30 CET
a@b:~$ sudo cat /proc/mdstat | grep recovery
[>....................] recovery = 0.5% (136020/25950208) finish=129.6min speed=3317K/sec
a@b:~$
:~$ date && sudo cat /proc/mdstat | grep recovery
mer. 10 févr. 2021 19:40:05 CET
[sudo] Mot de passe de a :
[===================>.] recovery = 95.7% (24841944/25950208) finish=5.2min speed=3499K/sec
a@b:~$ date && sudo cat /proc/mdstat | grep recovery
mer. 10 févr. 2021 19:45:49 CET
cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md50 : active raid6 sdd8[9] sdd6[8] sdd7[7] sdd10[6] sdd9[5] sdd5[1] sdd4[0]
129751040 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/7] [UUUUUUU]
Dernière modification par geole (Le 10/02/2021, à 20:01)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
En ligne
#60 Le 10/02/2021, à 15:41
- webangel
Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04
Super, un grand merci de créer cette simulation et voir comment elle évolue dans ce contexte.
Je reconnais bien là les passionnés de ce qu'il fond, le courage également.
De mon côté voici les nouvelles:
sudo cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md127 : active raid6 sdf1[9] sdg1[8] sdb1[7] sda1[6] sdd1[3] sde1[4] sdc[10]
14650670080 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/6] [UUUUU_U]
[=>...................] recovery = 6.7% (199224832/2930134016) finish=21526.1min speed=2114K/sec
Hors ligne
#61 Le 10/02/2021, à 23:22
- webangel
Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04
D'accord pour le test finalement, il a l'air plutôt concluant, j'en déduis qu'à la vitesse du débit d'environs 3400 K/sec
pour 2500 Go il aurait fallu 8 à 9 jours du coup pour mon NAS si j'avais dans l'absolu le même débit que toi pour 2700 Go j'aurai mis 9 à 10 jours.
J'en conclue qu'il faille bien que j'attende 10 jours environs dans le meilleur des cas et au pire 16 jours que la reconstruction se termine
Dis-moi ce que tu en penses rectifie-moi si je me trompe ?
Hors ligne
#62 Le 11/02/2021, à 11:04
- geole
Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04
Bonjour
Lorsque j'ai regardé régulièrement, j'ai vu que de temps en temps, l'estimation restait inchangée et que plus tard elle était réactualisée en changent fortement. Ce n'est donc qu'une estimation plus ou moins exacte
Tu peux, tous les jours redemander son état d'avancement..
Tes conclusions sont bonnes, Mais l'arrêt de l'ordinateur reste possible, au redémarrage suivant il devrait continuer la reconstruction et pas repatir de zéro
Je fais un autre test pour le vérifier.
sudo mdadm --manage /dev/md50 --set-faulty /dev/sdd5 /dev/sdd9
mdadm: set /dev/sdd5 faulty in /dev/md50
mdadm: set /dev/sdd9 faulty in /dev/md50
sudo mdadm --manage /dev/md50 --remove /dev/sdd5 /dev/sdd9
mdadm: hot removed /dev/sdd5 from /dev/md50
mdadm: hot removed /dev/sdd9 from /dev/md50
sudo dd if=/dev/zero of=/dev/sdd5 bs=1MB status=progress
sudo dd if=/dev/zero of=/dev/sdd9 bs=1MB status=progress
sudo mdadm --manage /dev/md50 --add /dev/sdd5 /dev/sdd9
mdadm: added /dev/sdd5
mdadm: added /dev/sdd9
date
jeu. 11 févr. 2021 11:55:24 CET
for ((i=0;;i++)); do cat /proc/mdstat|grep recovery;sleep 300;done;
[>....................] recovery = 0.1% (42396/25950208) finish=142.5min speed=3028K/sec
Donc, à mi-chemin après 1 heure et 5 minutes, C'est le moment de booter.
a@b:~$ date
jeu. 11 févr. 2021 11:55:24 CET
a@b:~$ for ((i=0;;i++)); do cat /proc/mdstat|grep recovery;sleep 300;done;
[>....................] recovery = 0.1% (42396/25950208) finish=142.5min speed=3028K/sec
[>....................] recovery = 4.2% (1093232/25950208) finish=116.0min speed=3569K/sec
[=>...................] recovery = 7.9% (2073512/25950208) finish=130.6min speed=3044K/sec
[==>..................] recovery = 11.8% (3076592/25950208) finish=113.1min speed=3369K/sec
[===>.................] recovery = 15.6% (4072220/25950208) finish=109.3min speed=3334K/sec
[===>.................] recovery = 19.5% (5067572/25950208) finish=102.9min speed=3380K/sec
[====>................] recovery = 23.3% (6049304/25950208) finish=100.9min speed=3286K/sec
[=====>...............] recovery = 27.1% (7033352/25950208) finish=97.9min speed=3218K/sec
[======>..............] recovery = 30.8% (8008348/25950208) finish=90.1min speed=3316K/sec
[======>..............] recovery = 34.7% (9013136/25950208) finish=83.3min speed=3386K/sec
[=======>.............] recovery = 38.5% (9998444/25950208) finish=79.0min speed=3361K/sec
[========>............] recovery = 42.3% (10995264/25950208) finish=76.4min speed=3257K/sec
[=========>...........] recovery = 46.2% (11993984/25950208) finish=69.3min speed=3351K/sec
[=========>...........] recovery = 49.9% (12965752/25950208) finish=66.3min speed=3260K/sec
L'arrêt se passe assez bien, il faut seulement attendre 90 secondes pour que l'O.S. stoppe la reconstruction
et que cela se termine comme d'habitude
Le reboot se passe bien. Aussitôt que je remets sous-tension le disque, la reconstruction reprend automatiquement sans aucune intervention.
date
jeu. 11 févr. 2021 13:06:46 CET
a@b:~$ for ((i=0;;i++)); do cat /proc/mdstat|grep recovery;sleep 300;done;
[==========>..........] recovery = 53.0% (13760696/25950208) finish=53.2min speed=3817K/sec
[===========>.........] recovery = 57.1% (14820508/25950208) finish=60.9min speed=3041K/sec
[============>........] recovery = 60.8% (15794736/25950208) finish=50.9min speed=3324K/sec
[============>........] recovery = 64.7% (16812304/25950208) finish=42.6min speed=3570K/sec
[=============>.......] recovery = 68.6% (17827852/25950208) finish=39.4min speed=3432K/sec
[==============>......] recovery = 72.7% (18867776/25950208) finish=35.4min speed=3327K/sec
[===============>.....] recovery = 76.5% (19859356/25950208) finish=30.9min speed=3277K/sec
[================>....] recovery = 80.3% (20847804/25950208) finish=24.6min speed=3445K/sec
[================>....] recovery = 84.1% (21833692/25950208) finish=21.2min speed=3231K/sec
[=================>...] recovery = 87.9% (22813952/25950208) finish=15.4min speed=3383K/sec
[==================>..] recovery = 91.6% (23795128/25950208) finish=11.0min speed=3259K/sec
[===================>.] recovery = 95.4% (24769872/25950208) finish=6.0min speed=3230K/sec
[===================>.] recovery = 99.1% (25721656/25950208) finish=1.1min speed=3226K/sec
^C
cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md50 : active raid6 sdd4[0] sdd10[6] sdd7[7] sdd9[11] sdd5[10] sdd6[8] sdd8[9]
129751040 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/7] [UUUUUUU]
Grosse épuration pour ne conserver qu'un seul fichier. Constat: La durée ne dépend pas du taux de remplissage.
df -h | grep RAID
/dev/md50 122G 2,1G 114G 2% /media/RAID50
sudo mdadm --manage /dev/md50 --set-faulty /dev/sdd4 /dev/sdd10
mdadm: set /dev/sdd4 faulty in /dev/md50
mdadm: set /dev/sdd10 faulty in /dev/md50
sudo mdadm --manage /dev/md50 --remove /dev/sdd4 /dev/sdd10
mdadm: hot removed /dev/sdd4 from /dev/md50
mdadm: hot removed /dev/sdd10 from /dev/md50
sudo mdadm --manage /dev/md50 --add /dev/sdd4 /dev/sdd10
mdadm: added /dev/sdd4
mdadm: added /dev/sdd10
date
jeu. 11 févr. 2021 14:23:33 CET
for ((i=0;;i++)); do cat /proc/mdstat|grep recovery;sleep 300;done;
[>....................] recovery = 0.0% (16280/25950208) finish=132.6min speed=3256K/sec
^C
Une seconde tentative d'arrêt mettra plus de temps pour stopper. Presque cinq minutes d'attente.
Je pense que le process de reconstruction se stoppe uniquement lorsqu'il a atteint certains point de cohérence.
Dernière modification par geole (Le 11/02/2021, à 14:49)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
En ligne
#63 Le 11/02/2021, à 11:23
- webangel
Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04
Bonjour, j'ai du coup bon espoir que cela s'accélère et fasse gagner du temps en plus
après le test que tu es en train de faire, si l'on peut arrêter et redémarrer la machine,
avec reprise automatique de la reconstruction c'est très bien.
Merci à toute.
Édit: c'est en effet 2 points importants que tu as testés en live,
je pourrai donc redémarrer le NAS ou s’il y avait une coupure du réseau électrique,
"les NAS s'ont sur onduleur" je ne stresserai pas il n'y aura pas de pertes de données,
et si la coupure était plus longue que 15 MN environs, temps d'énergie disponible sur onduleur,
cela n'aura pas impacté la reconstruction en cours, c'est un excellent point.
Et en deuxième point le taux de chargement de fichiers n'influençant pas le temps de reconstruction ça aussi c'est bien,
car mon NAS étant très chargé en fichiers ça n'aura pas d'incidence sur celui-ci.
Merci à toute
Dernière modification par webangel (Le 11/02/2021, à 16:15)
Hors ligne
#64 Le 11/02/2021, à 17:19
- geole
Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04
Essais supplémentaires.
J'ai rebranché mon disque sur un autre ordinateur.
La reconstruction a continué.
J'en ai profité pour lui copier 20 Go de données. Cette copie m'a semblé un peu ralentie mais très peu.
Lorsque la copie a été finie, j'ai décidé d'arrêter l'ordinateur. J'ai quasiment perdu la main. Cela s'est terminé par un appui sur le bouton d'arrêt/marche. Je pense que c'est lié..
Je l'ai alors rebranché sur l'ordinateur de référence.
La resynchronisation a repris
J'ai monté le raid. Le temps de montage fut un peu long
Je suis en train de relire les 20 Go que j'avais copié. GROSSE SURPRISE , le temps de lecture de certains fichiers est TRES TRES lent comme s'il y avait des blocages.
La remise en état va bientôt se terminer... Je pense que la lecture redeviendra plus rapide.
La commande IOTOP montrait que cela se répartissait équitablement entre les deux process...
for ((i=0;;i++)); do cat /proc/mdstat|grep recovery;sleep 300;done;
[==================>..] recovery = 90.9% (23601464/25950208) finish=11.5min speed=3392K/sec
[==================>..] recovery = 94.6% (24552212/25950208) finish=7.4min speed=3128K/sec
[===================>.] recovery = 98.3% (25533360/25950208) finish=2.2min speed=3010K/sec
Dernière modification par geole (Le 11/02/2021, à 17:27)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
En ligne
#65 Le 12/02/2021, à 01:00
- webangel
Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04
Très bons tests que tu as effectués et ces mises en situation pour moi sont riches d'enseignement pour la suite.
Bonne nuit geole.
À toute.
Hors ligne
#66 Le 12/02/2021, à 21:35
- webangel
Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04
Dernier résultat de mdstat
sudo cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md127 : active raid6 sdf1[9] sdg1[8] sdb1[7] sda1[6] sdd1[3] sde1[4] sdc[10]
14650670080 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/6] [UUUUU_U]
[====>................] recovery = 23.2% (681613928/2930134016) finish=6245.0min speed=6000K/sec
À ce rythme là la reconstruction pourrai être terminée dans 4.5 environs à suivre...
Hors ligne
#67 Le 18/02/2021, à 21:35
- webangel
Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04
Bonjour geole bonjour à tous,
la reconstruction viens de se terminer au bout de 9 jours environs, le disque sdf présente encore des erreurs,
mais il a bien été réintégré au volume raid6 mais, il y a un mais le disque sdc a été écarter du volume raid6 et déclaré faulty par le système.
mdstat final
sudo cat /proc/mdstat
[sudo] Mot de passe de jeff :
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md127 : active raid6 sdf1[9] sdg1[8] sdb1[7] sda1[6] sdd1[3] sde1[4] sdc[10](F)
14650670080 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/6] [UU_UUUU]
mdadm
sudo mdadm --detail /dev/md127
/dev/md127:
Version : 1.2
Creation Time : Fri Mar 22 14:27:12 2013
Raid Level : raid6
Array Size : 14650670080 (13971.97 GiB 15002.29 GB)
Used Dev Size : 2930134016 (2794.39 GiB 3000.46 GB)
Raid Devices : 7
Total Devices : 7
Persistence : Superblock is persistent
Update Time : Thu Feb 18 20:51:36 2021
State : clean, degraded
Active Devices : 6
Working Devices : 6
Failed Devices : 1
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : resync
Name : SRVNAS3T:0 (local to host SRVNAS3T)
UUID : 0e2234e3:8853b712:5eb5db08:2afa36ea
Events : 13123
Number Major Minor RaidDevice State
6 8 1 0 active sync /dev/sda1
7 8 17 1 active sync /dev/sdb1
- 0 0 2 removed
3 8 49 3 active sync /dev/sdd1
4 8 65 4 active sync /dev/sde1
9 8 81 5 active sync /dev/sdf1
8 8 97 6 active sync /dev/sdg1
10 8 32 - faulty /dev/sdc
smartctl de sdf
sudo smartctl -A /dev/sdf
smartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.4.0-65-generic] (local build)
Copyright (C) 2002-19, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF READ SMART DATA SECTION ===
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 5
3 Spin_Up_Time 0x0027 197 179 021 Pre-fail Always - 5116
4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 122
5 Reallocated_Sector_Ct 0x0033 193 193 140 Pre-fail Always - 218
7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0
9 Power_On_Hours 0x0032 008 008 000 Old_age Always - 67764
10 Spin_Retry_Count 0x0032 100 100 000 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 121
192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 68
193 Load_Cycle_Count 0x0032 197 197 000 Old_age Always - 9927
194 Temperature_Celsius 0x0022 112 088 000 Old_age Always - 38
196 Reallocated_Event_Count 0x0032 123 123 000 Old_age Always - 77
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 1
198 Offline_Uncorrectable 0x0030 200 200 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0
200 Multi_Zone_Error_Rate 0x0008 200 200 000 Old_age Offline - 1
smartctl de tous les disques sauf sdc qui est faulty
./smartctl-hdd-abcdefgh.sh
................ état du disque /dev/sda
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0
No Errors Logged
................ état du disque /dev/sdb
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 2
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 4
No Errors Logged
................ état du disque /dev/sdc
................ état du disque /dev/sdd
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0
No Errors Logged
................ état du disque /dev/sde
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0
No Errors Logged
................ état du disque /dev/sdf
5 Reallocated_Sector_Ct 0x0033 193 193 140 Pre-fail Always - 218
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 1
No Errors Logged
................ état du disque /dev/sdg
5 Reallocated_Sector_Ct 0x0033 100 100 010 Pre-fail Always - 0
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 0
No Errors Logged
................ état du disque /dev/sdh
5 Reallocated_Sector_Ct 0x0033 253 253 010 Pre-fail Always - 0
No Errors Logged
Du coup il y a également sdb qui présente des pending sector et des secteurs réalloués... ?
Je ne sais pas si je réintègre le disque sdc au volume raid vu qu'il est faulty ou si je le remplace par un nouveau disque ?
Dernière modification par webangel (Le 18/02/2021, à 21:56)
Hors ligne
#68 Le 19/02/2021, à 14:06
- geole
Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04
Bonjour
Merci de ton retour
tu pourrais redonner un état smartctl complet
sudo smartclt -a /dev/sdb
sudo smartctl -a /dev/sdc
Ce n'est pas grave d'avoir des secteurs réalloués tant que leur nombre reste faible.
Lorsque leur nombre est trop important, le disque est automatiquement déclaré "failing-now" ce qui justifie un changement sans se poser de question.
Je pense que cela serait mieux de remplacer SDC car s'il a été automatiquement éjecté, il y a certainement une raison.
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
En ligne
#69 Le 19/02/2021, à 15:09
- webangel
Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04
Bonjour, merci pour ta réponse en effet je vais changer sdc par un nouveau disque est-ce que
je tente l'opération en hot swap ou non ?
Voici les résultats de smartctl -a de sdc
sudo smartctl -a /dev/sdc
smartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.4.0-65-generic] (local build)
Copyright (C) 2002-19, Bruce Allen, Christian Franke, www.smartmontools.org
Short INQUIRY response, skip product id
A mandatory SMART command failed: exiting. To continue, add one or more '-T permissive' options.
Pas de résultat normal, contenu du fait que sdc n'est pas dans le volume ?
smartctl -a de sdb
sudo smartctl -a /dev/sdb
smartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.4.0-65-generic] (local build)
Copyright (C) 2002-19, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Western Digital Green
Device Model: WDC WD30EZRX-00DC0B0
Serial Number: WD-WMC1T1829451
LU WWN Device Id: 5 0014ee 6585e5eb7
Firmware Version: 80.00A80
User Capacity: 3000592982016 bytes [3,00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Device is: In smartctl database [for details use: -P show]
ATA Version is: ACS-2 (minor revision not indicated)
SATA Version is: SATA 3.0, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is: Fri Feb 19 15:05:32 2021 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x84) Offline data collection activity
was suspended by an interrupting command from host.
Auto Offline Data Collection: Enabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: (39600) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 398) minutes.
Conveyance self-test routine
recommended polling time: ( 5) minutes.
SCT capabilities: (0x70b5) SCT Status supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 1779
3 Spin_Up_Time 0x0027 199 180 021 Pre-fail Always - 5016
4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 121
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 2
7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0
9 Power_On_Hours 0x0032 006 006 000 Old_age Always - 68979
10 Spin_Retry_Count 0x0032 100 100 000 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 120
192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 68
193 Load_Cycle_Count 0x0032 197 197 000 Old_age Always - 9875
194 Temperature_Celsius 0x0022 120 101 000 Old_age Always - 30
196 Reallocated_Event_Count 0x0032 198 198 000 Old_age Always - 2
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 4
198 Offline_Uncorrectable 0x0030 200 200 000 Old_age Offline - 1
199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0
200 Multi_Zone_Error_Rate 0x0008 200 200 000 Old_age Offline - 34
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
No self-tests have been logged. [To run self-tests, use: smartctl -t]
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
Merci et à toute
Hors ligne
#70 Le 19/02/2021, à 15:27
- geole
Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04
La commande smartctl, interroge le firmware du disque.
Ce firmware ne sait plus répondre correctement. C'est mort.
Le disque SDC n'est plus dans le raids à cause de cet incident , en effet MDADM refuse de mettre dans un RAID des disques défectueux.....
Dans mes essais, j'ajoutais des partitions sans difficultés avec le RAID monté
Pour l'ajout de ton disque neuf, pense à vérifier qu'il a bien déjà une partition de créée sur la totalité du disque.
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
En ligne
#71 Le 19/02/2021, à 16:13
- MicP
Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04
Bonjour
… sauf que j'ai sdc en état removed... …
Non, ce n'est pas le disque qui est en état removed
mais la première partition du disque <=> /dev/sdc1
… Périphérique Début Fin Secteurs Taille Type … /dev/sde1 2048 5860533134 5860531087 2,7T Système de fichiers Linux … /dev/sda1 2048 5860533134 5860531087 2,7T Système de fichiers Linux … /dev/sdb1 2048 5860533134 5860531087 2,7T Système de fichiers Linux … /dev/sdg1 2048 5860533134 5860531087 2,7T Système de fichiers Linux … /dev/sdc1 2048 5860533134 5860531087 2,7T Système de fichiers Linux … /dev/sdd1 2048 5860533134 5860531087 2,7T Système de fichiers Linux … /dev/sdf1 2048 5860533134 5860531087 2,7T Système de fichiers Linux …
Le type de système de fichiers de ces partitions retourné par la commande fdisk
devrait plutôt être RAID et non Système de fichiers Linux
=======
sudo mdadm --add /dev/md127 /dev/sd[c] mdadm: added /dev/sdc
Ce n'est pas le disque entier,
mais la première partition (/dev/sdc1) du disque qui devrait être ajoutée au RAID6
Dernière modification par MicP (Le 19/02/2021, à 16:14)
Hors ligne
#72 Le 19/02/2021, à 18:59
- webangel
Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04
Oui en effet tu as raison je devrai plutôt parler de partition sdc1 en état removed .
Pour le type de système de fichiers Raid à la place de système de fichier Linux,
lors du partitionnement de sdc j'ai utilisé gdisk et lorsque j'ai listé les types de partitions possibles,
je n'avais pas trouvé le type RAID, donc par défaut j'avais opté pour système de fichiers Linux (en EXT4),
étant données que toutes mes partitions de tous les disques s'ont en EXT4 et ce depuis 9 ans, est-il possible de repasser en type de système de fichiers RAID,
sur l'ensemble des partitions des disques pour être cohérent , sans rien perdre étant donnée que je ne suis pas en mesure de sauvegarder environs 14 To ?
Hors ligne
#73 Le 19/02/2021, à 19:39
- MicP
Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04
fdisk identifie le type de partition en lisant la table des partitions
mais cela n'empêche pas (comme tu l'as fait) de formater la partition concernée
avec un autre système de fichiers que celui indiqué dans la table des partitions.
Donc, le changement dans la table des partitions du type de partition ne modifiera rien dans la partition et son système de fichiers,
et Linux ne tient compte (comme il l'a fait) que du type de système de fichiers qu'il a su reconnaître dans la partition.
fdisk permet de changer le type de partition inscrit dans la table des partitions
sans que cela n'affecte la partition et son contenu.
Une fois lancé la commande fdisk
en tapant la touche M on peut lister les commandes accessibles,
et en tapant la touche L permet de lister tous les types de partitions que fdisk peut reconnaître.
On peut voir dans la liste que le type RAID Linux auto est celui utilisant l'ID hexa fd
root@xubu:~# fdisk /dev/sda
Bienvenue dans fdisk (util-linux 2.34).
Les modifications resteront en mémoire jusqu'à écriture.
Soyez prudent avant d'utiliser la commande d'écriture.
Commande (m pour l'aide) : m
Aide :
DOS (secteur d'amorçage)
a modifier un indicateur d'amorçage
b éditer l'étiquette BSD imbriquée du disque
c modifier l'indicateur de compatibilité DOS
Générique
d supprimer la partition
F afficher l’espace libre non partitionné
l afficher les types de partitions connues
n ajouter une nouvelle partition
p afficher la table de partitions
t modifier le type d'une partition
v vérifier la table de partitions
i Afficher des renseignements sur la partition
Autre
m afficher ce menu
u modifier les unités d'affichage et de saisie
x fonctions avancées (réservées aux spécialistes)
Script
I chargement de l’agencement à partir du fichier de script sfdisk
O sauvegarde de l’agencement vers le fichier de script sfdisk
Sauvegarder et quitter
w écrire la table sur le disque et quitter
q quitter sans enregistrer les modifications
Créer une nouvelle étiquette
g créer une nouvelle table vide de partitions GPT
G créer une nouvelle table vide de partitions SGI (IRIX)
o créer une nouvelle table vide de partitions DOS
s créer une nouvelle table vide de partitions Sun
Commande (m pour l'aide) : l
0 Vide 24 NEC DOS 81 Minix / Linux a bf Solaris
1 FAT12 27 TFS WinRE masqu 82 partition d'éch c1 DRDOS/sec (FAT-
2 root XENIX 39 Plan 9 83 Linux c4 DRDOS/sec (FAT-
3 usr XENIX 3c récupération Pa 84 OS/2 hidden or c6 DRDOS/sec (FAT-
4 FAT16 <32M 40 Venix 80286 85 Linux étendue c7 Syrinx
5 Étendue 41 PPC PReP Boot 86 NTFS volume set da Non-FS data
6 FAT16 42 SFS 87 NTFS volume set db CP/M / CTOS / .
7 HPFS/NTFS/exFAT 4d QNX4.x 88 Linux plaintext de Dell Utility
8 AIX 4e 2e partie QNX4. 8e LVM Linux df BootIt
9 Amorçable AIX 4f 3e partie QNX4. 93 Amoeba e1 DOS access
a Gestionnaire d' 50 OnTrack DM 94 Amoeba BBT e3 DOS R/O
b W95 FAT32 51 OnTrack DM6 Aux 9f BSD/OS e4 SpeedStor
c W95 FAT32 (LBA) 52 CP/M a0 IBM Thinkpad hi ea Alignement Rufu
e W95 FAT16 (LBA) 53 OnTrack DM6 Aux a5 FreeBSD eb BeOS fs
f Étendue W95 (LB 54 OnTrackDM6 a6 OpenBSD ee GPT
10 OPUS 55 EZ-Drive a7 NeXTSTEP ef EFI (FAT-12/16/
11 FAT12 masquée 56 Golden Bow a8 UFS Darwin f0 Linux/PA-RISC b
12 Compaq diagnost 5c Priam Edisk a9 NetBSD f1 SpeedStor
14 FAT16 masquée < 61 SpeedStor ab Amorçage Darwin f4 SpeedStor
16 FAT16 masquée 63 GNU HURD ou Sys af HFS / HFS+ f2 DOS secondaire
17 HPFS/NTFS masqu 64 Novell Netware b7 BSDI fs fb VMware VMFS
18 AST SmartSleep 65 Novell Netware b8 partition d'éch fc VMware VMKCORE
1b W95 FAT32 masqu 70 DiskSecure Mult bb Boot Wizard mas fd RAID Linux auto
1c W95 FAT32 masqu 75 PC/IX bc Acronis FAT32 L fe LANstep
1e W95 FAT16 masqu 80 Minix ancienne be Amorçage Solari ff BBT
Commande (m pour l'aide) : q
root@xubu:~#
en tapant sur la lettre t on peut modifier le type de partition
root@xubu:~# fdisk /dev/sda
Bienvenue dans fdisk (util-linux 2.34).
Les modifications resteront en mémoire jusqu'à écriture.
Soyez prudent avant d'utiliser la commande d'écriture.
Commande (m pour l'aide) : p
Disque /dev/sda : 238,49 GiB, 256060514304 octets, 500118192 secteurs
Disk model: SAMSUNG MZ7LN256
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Type d'étiquette de disque : dos
Identifiant de disque : 0xbc16979f
Périphérique Amorçage Début Fin Secteurs Taille Id Type
/dev/sda1 * 2048 1187839 1185792 579M 7 HPFS/NTFS/exFAT
/dev/sda2 1187840 360040447 358852608 171,1G 7 HPFS/NTFS/exFAT
/dev/sda3 360040448 399454207 39413760 18,8G 83 Linux
/dev/sda4 399456254 500117503 100661250 48G 5 Étendue
/dev/sda5 399456256 436028521 36572266 17,4G 83 Linux
/dev/sda6 436031488 466561023 30529536 14,6G 7 HPFS/NTFS/exFAT
/dev/sda7 466563072 500117503 33554432 16G 82 partition d'échange Linux / Solaris
Commande (m pour l'aide) : t
Numéro de partition (1-7, 7 par défaut) : 1
Code Hexa (taper L pour afficher tous les codes) : fd
Type de partition « HPFS/NTFS/exFAT » modifié en « Linux raid autodetect ».
Commande (m pour l'aide) : p
Disque /dev/sda : 238,49 GiB, 256060514304 octets, 500118192 secteurs
Disk model: SAMSUNG MZ7LN256
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Type d'étiquette de disque : dos
Identifiant de disque : 0xbc16979f
Périphérique Amorçage Début Fin Secteurs Taille Id Type
/dev/sda1 * 2048 1187839 1185792 579M fd RAID Linux autodétecté
/dev/sda2 1187840 360040447 358852608 171,1G 7 HPFS/NTFS/exFAT
/dev/sda3 360040448 399454207 39413760 18,8G 83 Linux
/dev/sda4 399456254 500117503 100661250 48G 5 Étendue
/dev/sda5 399456256 436028521 36572266 17,4G 83 Linux
/dev/sda6 436031488 466561023 30529536 14,6G 7 HPFS/NTFS/exFAT
/dev/sda7 466563072 500117503 33554432 16G 82 partition d'échange Linux / Solaris
Commande (m pour l'aide) : q
root@xubu:~#
Ci dessus, après avoir fait la modification du type de partition de la partition N°1,
j'ai listé les partitions telles qu'elles seraient si j'avais enregistré les modifications,
puis j'ai tapé la touche Q pour quitter sans enregistrer la modification.
=======
Ci-dessous, j'ai tapé sur la touche P pour lister les partitions de mon disque /dev/sda
puis j'ai modifié le type de la partition N°1 pour le type RAID Linux auto
puis j'ai listé les partitions telles qu'elles seront enregistrées une fois modifiées
et j'ai enregistré la modifications en appuyant sur la touche W
root@xubu:~# fdisk /dev/sda
Bienvenue dans fdisk (util-linux 2.34).
Les modifications resteront en mémoire jusqu'à écriture.
Soyez prudent avant d'utiliser la commande d'écriture.
Commande (m pour l'aide) : p
Disque /dev/sda : 238,49 GiB, 256060514304 octets, 500118192 secteurs
Disk model: SAMSUNG MZ7LN256
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Type d'étiquette de disque : dos
Identifiant de disque : 0xbc16979f
Périphérique Amorçage Début Fin Secteurs Taille Id Type
/dev/sda1 * 2048 1187839 1185792 579M 7 HPFS/NTFS/exFAT
/dev/sda2 1187840 360040447 358852608 171,1G 7 HPFS/NTFS/exFAT
/dev/sda3 360040448 399454207 39413760 18,8G 83 Linux
/dev/sda4 399456254 500117503 100661250 48G 5 Étendue
/dev/sda5 399456256 436028521 36572266 17,4G 83 Linux
/dev/sda6 436031488 466561023 30529536 14,6G 7 HPFS/NTFS/exFAT
/dev/sda7 466563072 500117503 33554432 16G 82 partition d'échange Linux / Solaris
Commande (m pour l'aide) : t
Numéro de partition (1-7, 7 par défaut) : 1
Code Hexa (taper L pour afficher tous les codes) : fd
Type de partition « HPFS/NTFS/exFAT » modifié en « Linux raid autodetect ».
Commande (m pour l'aide) : p
Disque /dev/sda : 238,49 GiB, 256060514304 octets, 500118192 secteurs
Disk model: SAMSUNG MZ7LN256
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Type d'étiquette de disque : dos
Identifiant de disque : 0xbc16979f
Périphérique Amorçage Début Fin Secteurs Taille Id Type
/dev/sda1 * 2048 1187839 1185792 579M fd RAID Linux autodétecté
/dev/sda2 1187840 360040447 358852608 171,1G 7 HPFS/NTFS/exFAT
/dev/sda3 360040448 399454207 39413760 18,8G 83 Linux
/dev/sda4 399456254 500117503 100661250 48G 5 Étendue
/dev/sda5 399456256 436028521 36572266 17,4G 83 Linux
/dev/sda6 436031488 466561023 30529536 14,6G 7 HPFS/NTFS/exFAT
/dev/sda7 466563072 500117503 33554432 16G 82 partition d'échange Linux / Solaris
Commande (m pour l'aide) : w
La table de partitions a été altérée.
Synchronisation des disques.
root@xubu:~#
=======
Je viens de comprendre ce qu'il a du t'arriver avec la commande gdisk :
le type de partition RAID Linux auto est tout en bas de la liste (fd00)
mais cette liste est sur 4 pages => il faut appuyer sur la touche Entrée pour voir les pages suivantes.
Donc, pour afficher la liste entière,
il faudra appuyer 5 fois sur la touche Entrée après avoir tapé sur la touche L
La première page affichée
avec, tout en bas de la page,
le message invitant à appuyer sur Entrée pour visualiser la suite de la liste :
root@xubu:~# gdisk /dev/sda
GPT fdisk (gdisk) version 1.0.5
Partition table scan:
MBR: MBR only
BSD: not present
APM: not present
GPT: not present
***************************************************************
Found invalid GPT and valid MBR; converting MBR to GPT format
in memory. THIS OPERATION IS POTENTIALLY DESTRUCTIVE! Exit by
typing 'q' if you don't want to convert your MBR partitions
to GPT format!
***************************************************************
Command (? for help): l
Type search string, or <Enter> to show all codes:
0700 Microsoft basic data 0c01 Microsoft reserved
2700 Windows RE 3000 ONIE boot
3001 ONIE config 3900 Plan 9
4100 PowerPC PReP boot 4200 Windows LDM data
4201 Windows LDM metadata 4202 Windows Storage Spaces
7501 IBM GPFS 7f00 ChromeOS kernel
7f01 ChromeOS root 7f02 ChromeOS reserved
8200 Linux swap 8300 Linux filesystem
8301 Linux reserved 8302 Linux /home
8303 Linux x86 root (/) 8304 Linux x86-64 root (/)
8305 Linux ARM64 root (/) 8306 Linux /srv
8307 Linux ARM32 root (/) 8308 Linux dm-crypt
8309 Linux LUKS 830a Linux IA-64 root (/)
830b Linux x86 root verity 830c Linux x86-64 root verity
830d Linux ARM32 root verity 830e Linux ARM64 root verity
830f Linux IA-64 root verity 8310 Linux /var
8311 Linux /var/tmp 8400 Intel Rapid Start
8500 Container Linux /usr 8501 Container Linux resizable rootfs
8502 Container Linux /OEM customization 8503 Container Linux root on RAID
8e00 Linux LVM a000 Android bootloader
a001 Android bootloader 2 a002 Android boot 1
Press the <Enter> key to see more codes, q to quit:
La liste complète après avoir appuyé sur Entrée 5 fois =>
Command (? for help): l
Type search string, or <Enter> to show all codes:
0700 Microsoft basic data 0c01 Microsoft reserved
2700 Windows RE 3000 ONIE boot
3001 ONIE config 3900 Plan 9
4100 PowerPC PReP boot 4200 Windows LDM data
4201 Windows LDM metadata 4202 Windows Storage Spaces
7501 IBM GPFS 7f00 ChromeOS kernel
7f01 ChromeOS root 7f02 ChromeOS reserved
8200 Linux swap 8300 Linux filesystem
8301 Linux reserved 8302 Linux /home
8303 Linux x86 root (/) 8304 Linux x86-64 root (/)
8305 Linux ARM64 root (/) 8306 Linux /srv
8307 Linux ARM32 root (/) 8308 Linux dm-crypt
8309 Linux LUKS 830a Linux IA-64 root (/)
830b Linux x86 root verity 830c Linux x86-64 root verity
830d Linux ARM32 root verity 830e Linux ARM64 root verity
830f Linux IA-64 root verity 8310 Linux /var
8311 Linux /var/tmp 8400 Intel Rapid Start
8500 Container Linux /usr 8501 Container Linux resizable rootfs
8502 Container Linux /OEM customization 8503 Container Linux root on RAID
8e00 Linux LVM a000 Android bootloader
a001 Android bootloader 2 a002 Android boot 1
Press the <Enter> key to see more codes, q to quit:
a003 Android recovery 1 a004 Android misc
a005 Android metadata a006 Android system 1
a007 Android cache a008 Android data
a009 Android persistent a00a Android factory
a00b Android fastboot/tertiary a00c Android OEM
a00d Android vendor a00e Android config
a00f Android factory (alt) a010 Android meta
a011 Android EXT a012 Android SBL1
a013 Android SBL2 a014 Android SBL3
a015 Android APPSBL a016 Android QSEE/tz
a017 Android QHEE/hyp a018 Android RPM
a019 Android WDOG debug/sdi a01a Android DDR
a01b Android CDT a01c Android RAM dump
a01d Android SEC a01e Android PMIC
a01f Android misc 1 a020 Android misc 2
a021 Android device info a022 Android APDP
a023 Android MSADP a024 Android DPO
a025 Android recovery 2 a026 Android persist
a027 Android modem ST1 a028 Android modem ST2
a029 Android FSC a02a Android FSG 1
a02b Android FSG 2 a02c Android SSD
Press the <Enter> key to see more codes, q to quit:
a02d Android keystore a02e Android encrypt
a02f Android EKSST a030 Android RCT
a031 Android spare1 a032 Android spare2
a033 Android spare3 a034 Android spare4
a035 Android raw resources a036 Android boot 2
a037 Android FOTA a038 Android system 2
a039 Android cache a03a Android user data
a03b LG (Android) advanced flasher a03c Android PG1FS
a03d Android PG2FS a03e Android board info
a03f Android MFG a040 Android limits
a200 Atari TOS basic data a500 FreeBSD disklabel
a501 FreeBSD boot a502 FreeBSD swap
a503 FreeBSD UFS a504 FreeBSD ZFS
a505 FreeBSD Vinum/RAID a580 Midnight BSD data
a581 Midnight BSD boot a582 Midnight BSD swap
a583 Midnight BSD UFS a584 Midnight BSD ZFS
a585 Midnight BSD Vinum a600 OpenBSD disklabel
a800 Apple UFS a901 NetBSD swap
a902 NetBSD FFS a903 NetBSD LFS
a904 NetBSD concatenated a905 NetBSD encrypted
a906 NetBSD RAID ab00 Recovery HD
Press the <Enter> key to see more codes, q to quit:
af00 Apple HFS/HFS+ af01 Apple RAID
af02 Apple RAID offline af03 Apple label
af04 AppleTV recovery af05 Apple Core Storage
af06 Apple SoftRAID Status af07 Apple SoftRAID Scratch
af08 Apple SoftRAID Volume af09 Apple SoftRAID Cache
af0a Apple APFS b300 QNX6 Power-Safe
bc00 Acronis Secure Zone be00 Solaris boot
bf00 Solaris root bf01 Solaris /usr & Mac ZFS
bf02 Solaris swap bf03 Solaris backup
bf04 Solaris /var bf05 Solaris /home
bf06 Solaris alternate sector bf07 Solaris Reserved 1
bf08 Solaris Reserved 2 bf09 Solaris Reserved 3
bf0a Solaris Reserved 4 bf0b Solaris Reserved 5
c001 HP-UX data c002 HP-UX service
e100 ONIE boot e101 ONIE config
e900 Veracrypt data ea00 Freedesktop $BOOT
eb00 Haiku BFS ed00 Sony system partition
ed01 Lenovo system partition ef00 EFI system partition
ef01 MBR partition scheme ef02 BIOS boot partition
f800 Ceph OSD f801 Ceph dm-crypt OSD
f802 Ceph journal f803 Ceph dm-crypt journal
Press the <Enter> key to see more codes, q to quit:
f804 Ceph disk in creation f805 Ceph dm-crypt disk in creation
f806 Ceph block f807 Ceph block DB
f808 Ceph block write-ahead log f809 Ceph lockbox for dm-crypt keys
f80a Ceph multipath OSD f80b Ceph multipath journal
f80c Ceph multipath block 1 f80d Ceph multipath block 2
f80e Ceph multipath block DB f80f Ceph multipath block write-ahead l
f810 Ceph dm-crypt block f811 Ceph dm-crypt block DB
f812 Ceph dm-crypt block write-ahead lo f813 Ceph dm-crypt LUKS journal
f814 Ceph dm-crypt LUKS block f815 Ceph dm-crypt LUKS block DB
f816 Ceph dm-crypt LUKS block write-ahe f817 Ceph dm-crypt LUKS OSD
fb00 VMWare VMFS fb01 VMWare reserved
fc00 VMWare kcore crash protection fd00 Linux RAID
Command (? for help):
Dernière modification par MicP (Le 19/02/2021, à 20:07)
Hors ligne
#74 Le 19/02/2021, à 20:25
- webangel
Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04
Merci MicP en effet bien vue pour le menu de gdisk j'avais mal lu et n'étais pas aller jusqu’à là fin.
Du coup j'ai pour chaque disque une seule partition de plus de 2,2 To,
est-ce que je peux quand même utiliser fdisk pour modifier le type de système de fichier en RAID Linux Auto ?
Hors ligne
#75 Le 19/02/2021, à 20:39
- MicP
Re : [Résolu] Raid6 state clean,degraded md127 depuis mise à niveau 20.04
Comme il s'agit de tables des partition de type gpt,
autant utiliser gdisk
Dernière modification par MicP (Le 19/02/2021, à 20:51)
Hors ligne