#1 Le 01/09/2020, à 17:31
- Bruno13
Disque sda défectueux
Bonjour à tous,
J'ai un serveur dédié chez OVH.
Depuis quelques temps je reçois un message de smartd qui m'indique que mon disque sda contient des secteurs défectueux.
Device: /dev/sda [SAT], 26 Offline uncorrectable sectors
J'ai déjà eu à changer des disques (RAID5 RAID1) mais jamais le sda.
Je me suis servi du tutoriel que propose https://docs.ovh.com/fr/dedicated/raid-soft/, qui fonctionne très bien pour sdb, sdc, etc...mais pas pour sda.
Tout ce que l'on trouve sur le net concerne le remplacement d'un sdb sdc etc...mais jamais pour sda.
Le technicien de chez OVH m'a changé le disque et a procédé à un redémarrage mais bien sûr cela n'a pas fonctionné.
J'ai eu le message suivant:
chain on hard drive failed. Next
Le serveur est démarré sur le mode rescue et est sur l'écran du rescue.
J'ai quand même essayé de suivre la procédure de re-synchronisation mais hélas sans succès.
Le service technique de chez OVH n'a pas pu m'aider non plus et m'a proposé de faire sous-traiter cette étape.
Auriez vous quelques conseils pour changer un SDA en RAID5 RAID1 sous Ubuntu ?
D'avance merci pour votre aide,
Amicalement,
Bruno
Dernière modification par Bruno13 (Le 09/11/2020, à 19:28)
Hors ligne
#2 Le 01/09/2020, à 18:34
- geole
Re : Disque sda défectueux
Bonjour, j'ai du mal à comprendre
Lorsqu'un disque appartient à un RAID, la procédure est strictement identique pour tous les disques du RAID.
A mon avis le SDA n'appartient pas au RAID, il contient simplement le logiciel et le technicien n'a pas réaccroché le RAID et d'après ce que tu décris, il semble que cela soit le problème.
Voir le paragraphe 6.1 de cette documentation https://doc.ubuntu-fr.org/raid_logiciel en particulier la commande mdadm --assemble
Dernière modification par geole (Le 01/09/2020, à 18:35)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#3 Le 01/09/2020, à 19:02
- Bruno13
Re : Disque sda défectueux
N'étant pas du tout un spécialiste, je n'ai pas encore bien saisi les infos dans la section que vous m'indiquez.
Cependant, voici quelques infos que j'ai pu copier/coller lorsque j'avais fait la manip lors du changement (j'ai depuis remis l'ancien disque défectueux n'ayant pas trouvé de solution)
Pour info ce sont 3 disques de 4To chacun.
Je n'ai pas d'autre infos hélas des manips que j'avais pu faire.
Si par hasard vous voyez quelque chose qui vous interpelle, n'hésitez pas à me le signaler, cela fera peut être avancé mon problème.
Tout d'abord un cat /proc/mdstat
root@rescue:~# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md2 : active raid1 sdb2[1] sdc2[2]
20478912 blocks [3/2] [_UU]
md3 : active raid1 sdb3[1] sdc3[2]
3885486016 blocks [3/2] [_UU]
bitmap: 0/29 pages [0KB], 65536KB chunk
unused devices: <none>
Ensuite j'ai essayé de faire (sdb disque sain) : sfdisk -d /dev/sdb | sfdisk --force /dev/sda
J'avoue que le partitionnement sda1 sda2 sda3 sda4 me laisse dubitatif...
root@rescue:~# sfdisk -d /dev/sdb | sfdisk --force /dev/sda
sfdisk: Checking that no-one is using this disk right now ...
sfdisk: OK
Disk /dev/sda: 486401 cylinders, 255 heads, 63 sectors/track
Old situation:
Units: cylinders of 8225280 bytes, blocks of 1024 bytes, counting from 0
Device Boot Start End #cyls #blocks Id System
/dev/sda1 0+ 267349- 267350- 2147483647+ ee GPT
/dev/sda2 0 - 0 0 0 Empty
/dev/sda3 0 - 0 0 0 Empty
/dev/sda4 0 - 0 0 0 Empty
New situation:
Units: sectors of 512 bytes, counting from 0
Device Boot Start End #sectors Id System
/dev/sda1 1 4294967295 4294967295 ee GPT
/dev/sda2 0 - 0 0 Empty
/dev/sda3 0 - 0 0 Empty
/dev/sda4 0 - 0 0 Empty
sfdisk: Warning: partition 1 does not end at a cylinder boundary
sfdisk: Warning: no primary partition is marked bootable (active)
This does not matter for LILO, but the DOS MBR will not boot this disk.
Successfully wrote the new partition table
Re-reading the partition table ...
sfdisk: If you created or changed a DOS partition, /dev/foo7, say, then use dd(1)
to zero the first 512 bytes: dd if=/dev/zero of=/dev/foo7 bs=512 count=1
(See fdisk(8).)
Dernière modification par Ayral (Le 01/09/2020, à 22:37)
Hors ligne
#4 Le 01/09/2020, à 20:41
- geole
Re : Disque sda défectueux
Bonsoir.
Je me suis trompé, Le disque SDA faisait trés certainement partie d'un ensemble de deux raid5.
J'ai lu le début procédure. Elle me semble correcte.
Spécialement le début qui consiste à dire que c'est en erreur.
sudo mdadm --fail /dev/md2 /dev/sda2
sudo mdadm --fail /dev/md3 /dev/sda3
Puis la suite avec la même logique. Je pense que tu l'as fait.
Tu en serais donc à l'étape de reconstrution.
Le tuto montre comment refabriquer la table de partition à l'image du disque sdb
sfdisk -d /dev/sdb | sfdisk /dev/sda
Effectivement le résultat est suprenant.....
Pourrais-tu regarder comment est le disque de référence.
sudo sfdisk -l /dev/sdb
Par précaution
sudo sfdisk -l /dev/sdc
Je suis surpris de ne pas voir md1 et que la taille des partitions 2 et 3
ne fasse pas envlron 4To qui est la taille du disque.
Je suis aussi surpris que la procédure du paragraphe 5.2 de la documentation que je t'ai indiquée ne puisse pas être appliquée car elle me semble plus simple.
Dernière modification par geole (Le 01/09/2020, à 22:31)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#5 Le 01/09/2020, à 22:28
- geole
Re : Disque sda défectueux
Pour ton disque défectueux, pourrais-tu faire un rapport smartctl
sudo apt install smartmontools
sudo smartctl -s on -a /dev/sda
On verra alors s'il suffit de le reformater pour le remettre dans le raid5 ou s'il doit aller à la poubelle car il y a plus que des secteurs défectueux.
Dernière modification par geole (Le 01/09/2020, à 22:32)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#6 Le 02/09/2020, à 08:51
- Bruno13
Re : Disque sda défectueux
Re-Bonjour,
Voici les 3 sfdisk que je viens de faire (pour mémoire, le sda est celui qui est défectueux)
Autre chose OVH change gratuitement le disque défectueux.
Disk /dev/sda: 3,7 TiB, 4000787030016 bytes, 7814037168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 82F20D47-9089-4292-A13F-F83F7CEC5E65
Device Start End Sectors Size Type
/dev/sda1 2048 1048575 1046528 511M EFI System
/dev/sda2 1048576 42006527 40957952 19,5G Linux RAID
/dev/sda3 42006528 7812978687 7770972160 3,6T Linux RAID
/dev/sda4 7812978688 7814025215 1046528 511M Linux swap
Disk /dev/sdb: 3,7 TiB, 4000787030016 bytes, 7814037168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 82F20D47-9089-4292-A13F-F83F7CEC5E65
Device Start End Sectors Size Type
/dev/sdb1 2048 1048575 1046528 511M EFI System
/dev/sdb2 1048576 42006527 40957952 19,5G Linux RAID
/dev/sdb3 42006528 7812978687 7770972160 3,6T Linux RAID
/dev/sdb4 7812978688 7814025215 1046528 511M Linux swap
Disk /dev/sdc: 3,7 TiB, 4000787030016 bytes, 7814037168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 82F20D47-9089-4292-A13F-F83F7CEC5E65
Device Start End Sectors Size Type
/dev/sdc1 2048 1048575 1046528 511M EFI System
/dev/sdc2 1048576 42006527 40957952 19,5G Linux RAID
/dev/sdc3 42006528 7812978687 7770972160 3,6T Linux RAID
/dev/sdc4 7812978688 7814025215 1046528 511M Linux swap
Et voici le smartctl sur sda:
smartctl 6.5 2016-01-24 r4214 [x86_64-linux-3.14.32-xxxx-grs-ipv6-64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Device Model: HGST HUS726040ALA610
Serial Number: N8H3NKXY
LU WWN Device Id: 5 000cca 244cfc1dd
Firmware Version: A5GNT907
User Capacity: 4 000 787 030 016 bytes [4,00 TB]
Sector Size: 512 bytes logical/physical
Rotation Rate: 7200 rpm
Form Factor: 3.5 inches
Device is: Not in smartctl database [for details use: -P showall]
ATA Version is: ACS-2, ATA8-ACS T13/1699-D revision 4
SATA Version is: SATA 3.1, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is: Wed Sep 2 09:44:31 2020 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x82) Offline data collection activity
was completed without error.
Auto Offline Data Collection: Enabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: ( 113) seconds.
Offline data collection
capabilities: (0x5b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
No Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 571) minutes.
SCT capabilities: (0x003d) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x000b 100 100 016 Pre-fail Always - 0
2 Throughput_Performance 0x0005 137 137 054 Pre-fail Offline - 104
3 Spin_Up_Time 0x0007 100 100 024 Pre-fail Always - 0
4 Start_Stop_Count 0x0012 100 100 000 Old_age Always - 8
5 Reallocated_Sector_Ct 0x0033 100 100 005 Pre-fail Always - 7
7 Seek_Error_Rate 0x000b 100 100 067 Pre-fail Always - 0
8 Seek_Time_Performance 0x0005 128 128 020 Pre-fail Offline - 18
9 Power_On_Hours 0x0012 097 097 000 Old_age Always - 27665
10 Spin_Retry_Count 0x0013 100 100 060 Pre-fail Always - 0
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 8
192 Power-Off_Retract_Count 0x0032 100 100 000 Old_age Always - 1045
193 Load_Cycle_Count 0x0012 100 100 000 Old_age Always - 1045
194 Temperature_Celsius 0x0002 187 187 000 Old_age Always - 32 (Min/Max 25/55)
196 Reallocated_Event_Count 0x0032 100 100 000 Old_age Always - 7
197 Current_Pending_Sector 0x0022 100 100 000 Old_age Always - 5
198 Offline_Uncorrectable 0x0008 100 100 000 Old_age Offline - 26
199 UDMA_CRC_Error_Count 0x000a 200 200 000 Old_age Always - 0
SMART Error Log Version: 1
ATA Error Count: 5
CR = Command Register [HEX]
FR = Features Register [HEX]
SC = Sector Count Register [HEX]
SN = Sector Number Register [HEX]
CL = Cylinder Low Register [HEX]
CH = Cylinder High Register [HEX]
DH = Device/Head Register [HEX]
DC = Device Command Register [HEX]
ER = Error register [HEX]
ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.
Error 5 occurred at disk power-on lifetime: 26916 hours (1121 days + 12 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
40 41 00 00 00 00 00 Error: UNC at LBA = 0x00000000 = 0
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
60 08 58 40 df be 40 08 32d+12:02:05.036 READ FPDMA QUEUED
60 08 50 38 df be 40 08 32d+12:02:02.277 READ FPDMA QUEUED
60 08 48 30 df be 40 08 32d+12:02:02.277 READ FPDMA QUEUED
61 08 40 30 df be 40 08 32d+12:02:02.277 WRITE FPDMA QUEUED
ef 10 02 00 00 00 a0 08 32d+12:02:02.247 SET FEATURES [Enable SATA feature]
Error 4 occurred at disk power-on lifetime: 26916 hours (1121 days + 12 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
40 41 00 00 00 00 00 Error: UNC at LBA = 0x00000000 = 0
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
60 08 38 30 df be 40 08 32d+12:02:02.078 READ FPDMA QUEUED
60 08 30 28 df be 40 08 32d+12:01:59.330 READ FPDMA QUEUED
60 08 28 20 df be 40 08 32d+12:01:59.330 READ FPDMA QUEUED
60 08 20 18 df be 40 08 32d+12:01:59.330 READ FPDMA QUEUED
60 08 18 10 df be 40 08 32d+12:01:59.330 READ FPDMA QUEUED
Error 3 occurred at disk power-on lifetime: 26916 hours (1121 days + 12 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
40 41 00 00 00 00 00 Error: UNC at LBA = 0x00000000 = 0
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
60 00 00 00 df be 40 08 32d+12:01:59.103 READ FPDMA QUEUED
60 00 f0 00 de be 40 08 32d+12:01:56.357 READ FPDMA QUEUED
60 00 e8 00 dd be 40 08 32d+12:01:56.355 READ FPDMA QUEUED
60 00 e0 00 dc be 40 08 32d+12:01:56.352 READ FPDMA QUEUED
60 00 d8 00 db be 40 08 32d+12:01:56.349 READ FPDMA QUEUED
Error 2 occurred at disk power-on lifetime: 26748 hours (1114 days + 12 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
40 41 00 00 00 00 00 Error: UNC at LBA = 0x00000000 = 0
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
60 08 40 90 24 b8 40 08 25d+12:02:07.932 READ FPDMA QUEUED
60 08 38 88 24 b8 40 08 25d+12:02:05.182 READ FPDMA QUEUED
60 08 30 80 24 b8 40 08 25d+12:02:05.182 READ FPDMA QUEUED
60 08 28 78 24 b8 40 08 25d+12:02:05.146 READ FPDMA QUEUED
60 08 20 70 24 b8 40 08 25d+12:02:05.146 READ FPDMA QUEUED
Error 1 occurred at disk power-on lifetime: 26748 hours (1114 days + 12 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
40 41 00 00 00 00 00 Error: UNC at LBA = 0x00000000 = 0
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
60 00 10 d8 23 b8 40 08 25d+12:02:04.848 READ FPDMA QUEUED
60 00 08 d8 22 b8 40 08 25d+12:02:02.085 READ FPDMA QUEUED
60 00 00 d8 21 b8 40 08 25d+12:02:02.083 READ FPDMA QUEUED
60 00 f0 d8 20 b8 40 08 25d+12:02:02.082 READ FPDMA QUEUED
60 00 e8 d8 1f b8 40 08 25d+12:02:02.080 READ FPDMA QUEUED
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Short offline Completed without error 00% 2 -
# 2 Short offline Completed without error 00% 1 -
# 3 Short offline Completed without error 00% 0 -
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
Merci pour le temps passé à répondre à me question, c'est sympa
Bruno
Hors ligne
#7 Le 02/09/2020, à 10:23
- geole
Re : Disque sda défectueux
Bonjour.
Finalement, je n'en étais pas loin . En fait le logiciel est installé en technique RAID5 dans MD2 et le /home est installé en technique RAID5 dans MD3.
Il n'y a pas de MD1 car la structure utilisée pour booter en EFI est sur SDA1 et potentiellement sur SDB1 et SDC1.
Donc la partition /dev/sda1 contient la totalité des fichiers de boot. Ce qui explique pourquoi le boot devient impossible lorsque le disque est absent.
Si l'installation avait parfaitement été faite, cette partition aurait été dupliquée et tu pourrais booter.
On va partir du principe que cela n'a pas été fait.
A) Booter avec le vieux disque si c'est encore possible.
B) Démonter les potentielles partitions de boot au cas où elles seraient montées spécialement sda1
sudo umount -v /dev/sda1
sudo umount -v /dev/sdb1
sudo umount -v /dev/sdc1
C) installer l'application GPARTED si pas encore fait
sudo apt install gparted
D) La lancer
gparted
E) 1- Se positionner sur SDA1 , faire copier, Se positionner sur SDB1 et faire coller
2- Se positionner sur SDB1, Rechercher la ligne proposant de changer le UUID et faire le changement.
F) 1- Se positionner sur SDA1 , faire copier, Se positionner sur SDC1 et faire coller
2- Se positionner sur SDC1, Rechercher la ligne proposant de changer le UUID et faire le changement.
Cette action de changement de UUID pour les deux partitions permet de ne pas avoir plusieurs partitions identiques. Un plantage de UBUNTU est possible si la présence de plusieurs partitions identiques est détectée. Cela permet de pouvoir éventuellement repartir avec le vieil SDA !
H) Quitter GPARTED et remonter la partition SDA1.
sudo mount -v /dev/sda1
I) Mettre à jour la NVRAM avec ces commandes
sudo efibootmgr --create --disk /dev/sdc --part 1 --label "shimC" --loader "\EFI\ubuntu\shimx64.efi"
sudo efibootmgr --create --disk /dev/sdb --part 1 --label "shimB" --loader "\EFI\ubuntu\shimx64.efi"
L'ordre n'a pas d'importance car on va modifier le fichier /etc/fstab
j) Commenter toutes les ligne évoquant SDA dans le fichier /etc/fstab
gedit admin:///etc/fstab
La suite a montré que les partitions sont définies par leur nom et pas par leur UUID qu'il devient inutile de préserver.
Puis fournir un boot-info permettant une vérification de la réalisation
K) Le soir du grand jour, Arrêter l'ordinateur, remplacer le disque SDA et rebooter. Cela devrait booter.
L) Remettre en état les deux RAIDS sur trois disques
M) vérifier la structure du nouvel SDA. Il faudra certainement lui créer une partition de swap avec l'espace restant
N) Redécommenter les lignes qui évoquent SDA.
O) Faire prendre en compte la partition de swap nouvellement créée.
sudo swapon /dev/sda4
J'ai noté que le remplacement du disque est gratuit.
Vu l'erreur rencontrée, il est à remplacer car un ennui sur le secteur 0 est un risque de refus de boot potentiel (heureusement qu'il en existe un double en GPT)
Error 5 occurred at disk power-on lifetime: 26916 hours (1121 days + 12 hours) Error: UNC at LBA = 0x00000000 = 0
Sa remise en état passerait par la création d'une table de partition.
Dernière modification par geole (Le 02/09/2020, à 16:17)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#8 Le 02/09/2020, à 12:31
- Bruno13
Re : Disque sda défectueux
Geole,
Tout d'abord vraiment merci pour le temps que tu passes et la précision de tes réponses.
En lisant tout ce que tu as écrit, je vais programmer d'ici peu un changement de disque.
Mais avant cela, je veux un peu comprendre les différentes manips que tu as détaillé.
Aurais tu quelques instants encore pour répondre à ces quelques questions.
Quand tu dis: "Si l'installation avait parfaitement été faite", je suppose que tu parles de l'installation d'ovh ?
car le serveur m'a été livré tel quel pour le RAID.
Voici mes autres interrogations:
A) oui c'est possible. actuellement le disque défectueux est en place, mon serveur est en prod' et est fonctionnel.
Pour bien comprendre, il y a un an j'ai changé le sdc sans problème avec la doc ovh.
Je pensais que le faire pour le sda n'allait pas être un problème.
ovh a changé le sda suite à ma demande mais hélas on a dû remettre l'ancien car le boot était en rescue et la synchro impossible.
B) je suppose que c'est pour pouvoir faire les manips sur ces partitions ?
C) D) oui c'est fait, juste un détail, je dois utiliser sudo pour le lancer.
E) F) les partitions sda1, sdb1, sdc1 étant encore montées, le copier/coller n'est pas actif dans gparted, je pense que c'est normal non ?
G) J'ai juste un menu "New UUID" (grisé), mais que vais-je devoir mettre ?
Une petite chose qui m'interpelle, pour sdb et sdc sous gparted j'ai ça pour "Partition"->"Information"
Est-ce normal ?
http://matheo2.free.fr/gparted.png
H) ok
I) ok je respecte l'ordre
J) ok, je ferais ça juste avant le remplacement du disque.
QUESTION: est-ce que si cela ne fonctionne pas, je pourrais remettre l'ancien que je l'ai fait la dernière fois ?
Car je vais sûrement faire ça un vendredi dans la soirée pour éviter de géner nos utilisateurs.
QUESTION 2: au reboot du serveur, je dois faire la resynchronisation des disques je suppose aussi ?
Modération : merci d'utiliser des images de petite taille (300x300) ou des miniatures pointant sur ces images (Des hébergeurs comme Toile Libre ou TDCT'Pix le permettent).
Dernière modification par cqfd93 (Le 02/09/2020, à 12:51)
Hors ligne
#9 Le 02/09/2020, à 13:13
- geole
Re : Disque sda défectueux
On va y aller doucement car j'avais oublié cette phrase
"ovh a changé le sda suite à ma demande mais hélas on a dû remettre l'ancien car le boot était en rescue et la synchro impossible."
Donc à priori, le boot avait bien mis en route!
Dans ta capture d'écran, le jaune ne me surprend pas trop, en revanche que le type de partition soit déclaré inconnu n'est pas normal.
Comme ton ordinateur fonctionne (c'est le principe du RAID), je propose d'installer l'application boot-info. Tu posteras l'URL qui sera générée. Elle permettra de voir en détail de contenu et de confirmer ou d'infirmer le problème des partitions SDB1 et SDC1. Bien entendu, tu diras qu'il y a un RAID dans la machine https://doc.ubuntu-fr.org/tutoriel/boot-info
Peut-être pourrais-je y voir la raison du rescue. Dans ce contexte, tout ce dont tu te souviens comme message d'erreur serait un plus ....
Réponse 1 Tant que l'ancien SDA permet de rebooter, sinon, cela serait avec un support d'installation de UBUNTU. J'espère que tu en as un.
Réponse 2, Lorsque le nouveau disque sera installé et que tu auras booté , Il faudra lancer la synchro . Il me semble que c'est bien décrit dans le document.
Commence par MD2 qui est le logiciel et a une petite taille. Lorsque cela sera fini, tu pourras faire MD3. Cela prendra du temps mais tu le sais.
Si tu souhaites avoir un avis sur la qualité des disques SDB et SDC, ne t'en prive pas. en faisant deux smartctl
Dernière modification par geole (Le 02/09/2020, à 13:22)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#10 Le 02/09/2020, à 13:28
- Bruno13
Re : Disque sda défectueux
Voici le lien vers mon boot-info que je viens de faire:
http://paste.ubuntu.com/p/6GgHrqxXFm/
Réponse 1 Tant que l'ancien SDA permet de rebooter, sinon, cela serait avec un support d'installation de UBUNTU. J'espère que tu en as un.
Je ne sais pas du tout, comment puis je en avoir un ?
Réponse 2: oui ok après je sais faire.
Les 2 autres disques sont sains (je viens de faire un smatrctl)
Dernière modification par Bruno13 (Le 02/09/2020, à 13:33)
Hors ligne
#11 Le 02/09/2020, à 14:32
- geole
Re : Disque sda défectueux
Au vu du boot-info
sda1: __________________________________________________________________________
File system: vfat
Boot sector type: FAT32
Boot files: /efi/ubuntu/grubx64.efi
sdb1: __________________________________________________________________________
File system:
sdc1: __________________________________________________________________________
File system:
Start End Sectors Size Type
sda1 2048 1048575 1046528 511M EFI System
sdc1 2048 1048575 1046528 511M EFI System
sdb1 2048 1048575 1046528 511M EFI System
NAME FSTYPE UUID PARTUUID LABEL PARTLABEL
├─sda1 vfat D326-0803 c54f025f-b2d1-488d-93c4-f9d85fa24374 EFI_SYSPART primary
├─sdb1 c54f025f-b2d1-488d-93c4-f9d85fa24374 primary
├─sdc1 c54f025f-b2d1-488d-93c4-f9d85fa24374 primary
PARTID
Je vais te demander un complément d'information pour ces deux partitions ayant le même PARTUUID que SDA et ayant certainement un drapeau de boot
1) création de points de montage
sudo mkdir /tmp/B
sudo mkdir /tmp/C
2) Démontage des partitions au cas où elles seraient montées quelque part.
sudo umount -v /dev/sdb1
sudo umount -v /dev/sdc1
3) Montage des partitions
sudo mount -v /dev/sdb1 /tmp/B
sudo mount -v /dev/sdc1 /tmp/C
4) Exploration du contenu
sudo ls -rals /tmp/B
sudo ls -rals /tmp/C
NOTA. En fait tu n'as pas physiquement la possibilité de booter... Si incident de boot, cela se résout par le réseau
BootCurrent: 0005
BootOrder: 0004,0005,0006,0007,0008,0009,0002,0001,000A
Boot0001 ubuntu1604-server_64 (GRUB) (first drive sda) HD(1,GPT,c54f025f-b2d1-488d-93c4-f9d85fa24374,0x800,0xff800)/File(\EFI\UBUNTU\GRUBX64.EFI)
Boot0005* UEFI: IP4 Intel(R) I350 Gigabit Network Connection PciRoot(0x0)/Pci(0x3,0x3)/Pci(0x0,0x0)/MAC(ac1f6b00c078,1)/IPv4(0.0.0.0:0<->0.0.0.0:0,0,0)..BO
et pas avec une live-usb
J'ai noté ta version en 16.04. Il faudra penser ầ la faire évoluer en 18.04 avant avril 2021 puis en 20.04
Dernière modification par geole (Le 02/09/2020, à 14:35)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#12 Le 02/09/2020, à 14:41
- Bruno13
Re : Disque sda défectueux
2) Démontage des partitions au cas où elles seraient montées quelque part.
là j'ai un petit soucis, le serveur étant en prod, je ne peux pas me permettre sans prévenir au moins 48h à l'avance les utilisateurs que le service va être indisponible.
Du coup, je suis pas trop chaud pour faire un umount.
ça m'embête car tes conseils me permettent d'avancer dans ma recherche de remplacement de disque.
N'existe t il pas une commande pour savoir si sdb1 et sdc1 sont montés quelque part avant de les démonter ?
Si je les démonte brut de coffre là, je risque quoi réellement ?
Concernant la version, oui j'ai vu que j'étais en 16 et qu'il y avait la 18 puis 20 dispo. je m'en occuperai plus tard. merci pour l'info
Hors ligne
#13 Le 02/09/2020, à 14:51
- geole
Re : Disque sda défectueux
Je pense avoir trouvé une cause du plantage lorsque le disque SDA est absent
=========================== md2/etc/fstab (filtered) ===========================
# <file system> <mount point> <type> <options> <dump> <pass>
/dev/md2 / ext4 errors=remount-ro,relatime 0 1
/dev/md3 /home ext4 defaults,relatime 1 2
/dev/sda4 swap swap defaults 0 0
/dev/sdb4 swap swap defaults 0 0
/dev/sdc4 swap swap defaults 0 0
proc /proc proc defaults 0 0
sysfs /sys sysfs defaults 0 0
/dev/sda1 /boot/efi vfat defaults,relatime 0 0
devtmpfs /dev devtmpfs rw 0 0
J'ai le souvenir qu'en version 16.04, lorsqu'une partition listée dans ce fichier est absente, cela plante.
Mais il devrait y avoir un message disant qu'il y a quelque chose d'absent
Je te propose donc modifier gedit admin:///etc/fstab en commentant les deux lignes évoquant SDA le temps que le problème soit résolu.
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#14 Le 02/09/2020, à 14:58
- geole
Re : Disque sda défectueux
Plus simple, ne lance pas le démontage et fait directement le montage, si elles sont montées, tu te feras injurier, tu lanceras alors la commande mount pour trouver où.... et on listera directement du point de montage
Mais je m'attends à avoir un message disant que le montage n'est pas possible car le type de partition est inconnu. Ce qui validera alors la proposition de duplication par GPARTED
Dernière modification par geole (Le 02/09/2020, à 14:59)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#15 Le 02/09/2020, à 14:58
- Bruno13
Re : Disque sda défectueux
Je te propose donc modifier gedit admin:///etc/fstab en commentant les deux lignes évoquant SDA le temps que le problème soit résolu.
Quelle conséquence cela peut avoir sur le système si je fais cela tout de suite ?
Le serveur tourne actuellement et je ne voudrais pas corrompre quoi que ce soit
De plus, je ne pourrais demander le changement de disque que vendredi soir prochain ou le même jour de la semaine d'après.
Hors ligne
#16 Le 02/09/2020, à 15:04
- geole
Re : Disque sda défectueux
Aucune conséquence, tant que le reboot n'a pas eu lieu. Tu peux ne le faire que quelques heures avant le reboot. Ce fichier n'est lu qu'a chaque boot et lors des commandes de mises à jour logicielles pour trouver où mettre à jour le grub.
Tu as confirmé que les deux autres disques sont en parfait état... Alors tu as tout le temps que tu veux pour changer le disque.
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#17 Le 02/09/2020, à 15:08
- Bruno13
Re : Disque sda défectueux
Aucune conséquence, tant que le reboot n'a pas eu lieu. Tu peux ne le faire que quelques heures avant le reboot. Ce fichier n'est lu qu'a chaque boot et lors des commandes de mises à jour logicielles pour trouver où mettre à jour le grub.
Tu as confirmé que les deux autres disques sont en parfait état... Alors tu as tout le temps que tu veux pour changer le disque.
ok merci pour l'info. Et parfait pour le timing.
J'ai fait un mount de /dev/sdc1 et j'ai obtenu:
xxxxx@xxxxx:~$ sudo mount -v /dev/sdc1 /home/xxxxx/tmp/C
mount: /dev/sdc1 is write-protected, mounting read-only
NTFS signature is missing.
Failed to mount '/dev/sdc1': Invalid argument
The device '/dev/sdc1' doesn't seem to have a valid NTFS.
Maybe the wrong device is used? Or the whole disk instead of a
partition (e.g. /dev/sda, not /dev/sda1)? Or the other way around?
ça confirme ce que tu penses ?
Hors ligne
#18 Le 02/09/2020, à 15:39
- geole
Re : Disque sda défectueux
Cela ne me surprend pas trop. Il a pensé que cela pouvait être un NTFS. Je ne savais pas ce qu'il allait en dire.
Même s'ils ont mis un double de la structure de boot dedans, elle est devenue inaccessible.
Comme tu as écris "Le service technique de chez OVH n'a pas pu m'aider non plus et m'a proposé de faire sous-traiter cette étape".
C'est toi qui voit les conditions de sous-traitance
Sinon, je pense que transférer SDA1 dans SDB1 et SDC1 puis modifier le UUID de SDC1 ansi que SDB1 nouveauté pour se prémunir d'un raté nécessitant la réinstallation de SDA1, puis mise à jour de la NVRAM afin de mettre cette nouvelle structure de boot prioritaire et rectification du /etc/fstab afin de ne plus avoir de trace de SDA devrait suffire pour réussir le boot.
(Je reporte tout cela dans le début)
La préparation peut se faire à l'avance et un nouveau boot-info permettra de le vérifier.
Dernière modification par geole (Le 02/09/2020, à 15:41)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#19 Le 02/09/2020, à 15:47
- Bruno13
Re : Disque sda défectueux
Bien bon, je vais préparer tout cela pour à mon avis pas ce vendredi mais le vendredi de la semaine prochaine.
En espérant que le boot se passe bien ET qu'ensuite j'arrive à faire la synchronisation de sda avec les 2 autres disques.
Je décommenterai ensuite les 2 lignes dans le fstab concernant sda
Je te remercie pour ton aide, et ne manquerai pas de revenir sur ce post pour t'indiquer si tout s'est bien passé.
Merci Geole !
Hors ligne
#20 Le 09/11/2020, à 18:34
- Bruno13
Re : Disque sda défectueux
Re-Bonjour Geole,
Depuis le temps je suis toujours au même point et même pire...le disque se dégrade et surtout je viens de me relire, j'ai écrit RAID5 alors que c'est RAID1 !!!!
Mais bon je suppose que ça ne change pas grand chose au fil des messages.
RAID1 = 3*4To = 4To de data
RAID5 = 3*4To = 8To env de data (dommage, cela m'aurait bien servi plus de place)
Il va falloir que je le change, mais je suis super fébrile car si je perds tout, c'est la cata assurée...
Par hasard, tu ne fais pas de prestation ?
Hors ligne
#21 Le 09/11/2020, à 19:15
- geole
Re : Disque sda défectueux
Bonjour
, j'ai écrit RAID5 alors que c'est RAID1 !!!!
je n'ai pas fais très attention en te croyant mais en reprenant, j'aurais du être alerté par ce retour.
root@rescue:~# Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md2 : active raid1 sdb2[1] sdc2[2]
20478912 blocks [3/2] [_UU]
md3 : active raid1 sdb3[1] sdc3[2]
3885486016 blocks [3/2] [_UU]
bitmap: 0/29 pages [0KB], 65536KB chunk
unused devices: <none>
== SDA n'est pas dans la liste !!!!!!
Rectificatif En lisant active raid1
Peux-tu donner le retour de
sudo lsblk -fe7 -o +size
Par hasard, tu ne fais pas de prestation ?
A moins d'un kilomètre de chez moi, il y a deux ou trois maisons
Dernière modification par geole (Le 10/11/2020, à 00:24)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#22 Le 09/11/2020, à 19:27
- Bruno13
Re : Disque sda défectueux
Salut Geole,
oui j'avoue que c'est en ayant le support OVH tout à l'heure au téléphone qu'il m'a dit que c'était un Raid1.
Parce qu'il m'a dit que je devais avoir env. 8To de data avec 3*4To en Raid5.
Bref...
Pour la commande:
sudo lsblk -fe7 -o +size
j'obtiens:
NAME FSTYPE LABEL UUID MOUNTPOINT SIZE
sda 3,7T
├─sda1 vfat EFI_SYSPART D326-0803 511M
├─sda2 linux_raid_member 282a9acc-8baf-f68b-a4d2-adc226fd5302 19,5G
│ └─md2 ext4 / 0b160a51-0c1d-48ad-853b-b99c5ddca6b7 / 19,5G
├─sda3 linux_raid_member 5acd7322-99c9-981e-a4d2-adc226fd5302 3,6T
│ └─md3 ext4 /home 0284f213-cf5c-45fd-8be9-618456ead3f8 /home 3,6T
└─sda4 swap swap-sda4 42a1be76-9fef-43b4-9a5f-552ab9e01d26 [SWAP] 511M
sdb 3,7T
├─sdb1 511M
├─sdb2 linux_raid_member 282a9acc-8baf-f68b-a4d2-adc226fd5302 19,5G
│ └─md2 ext4 / 0b160a51-0c1d-48ad-853b-b99c5ddca6b7 / 19,5G
├─sdb3 linux_raid_member 5acd7322-99c9-981e-a4d2-adc226fd5302 3,6T
│ └─md3 ext4 /home 0284f213-cf5c-45fd-8be9-618456ead3f8 /home 3,6T
└─sdb4 511M
sdc 3,7T
├─sdc1 511M
├─sdc2 linux_raid_member 282a9acc-8baf-f68b-a4d2-adc226fd5302 19,5G
│ └─md2 ext4 / 0b160a51-0c1d-48ad-853b-b99c5ddca6b7 / 19,5G
├─sdc3 linux_raid_member 5acd7322-99c9-981e-a4d2-adc226fd5302 3,6T
│ └─md3 ext4 /home 0284f213-cf5c-45fd-8be9-618456ead3f8 /home 3,6T
└─sdc4 511M
ram0 4M
ram1 4M
ram2 4M
ram3 4M
ram4 4M
ram5 4M
ram6 4M
ram7 4M
ram8 4M
ram9 4M
ram10 4M
ram11 4M
ram12 4M
ram13 4M
ram14 4M
ram15 4M
== SDA n'est pas dans la liste !!!!!!
Là je pense que c'était normal, parce que c'était un copier/coller lorsqu'il m'avait mis le nouveau disque.
Donc rien n'avait encore été fait. (ensuite j'ai demandé à remettre l'ancien)
Dernière modification par Bruno13 (Le 10/11/2020, à 08:57)
Hors ligne
#23 Le 09/11/2020, à 19:52
- geole
Re : Disque sda défectueux
Ici tu as bien un RAID avec trois disques
├─sda3 linux_raid_member 5acd7322-99c9-981e-a4d2-adc226fd5302 3,6T
│ └─md3 ext4 /home 0284f213-cf5c-45fd-8be9-618456ead3f8 /home
├─sdb3 linux_raid_member 5acd7322-99c9-981e-a4d2-adc226fd5302 3,6T
│ └─md3 ext4 /home 0284f213-cf5c-45fd-8be9-618456ead3f8 /home
├─sdc3 linux_raid_member 5acd7322-99c9-981e-a4d2-adc226fd5302 3,6T
│ └─md3 ext4 /home 0284f213-cf5c-45fd-8be9-618456ead3f8 /home
Donc un espace disponible de 7,2 To pour le /home
Correctif. Ce n'est pas le cas, il y a 3,6 ce qui correspond effectivement à duraid1
Dernière modification par geole (Le 10/11/2020, à 00:26)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#24 Le 09/11/2020, à 20:03
- Bruno13
Re : Disque sda défectueux
tu es sûr ?
xxxxxx@xxxx:~$ df -h
Filesystem Size Used Avail Use% Mounted on
/dev/root 20G 5,8G 13G 32% /
devtmpfs 63G 0 63G 0% /dev
tmpfs 63G 8,0K 63G 1% /dev/shm
tmpfs 63G 4,1G 59G 7% /run
tmpfs 5,0M 0 5,0M 0% /run/lock
tmpfs 63G 0 63G 0% /sys/fs/cgroup
/dev/md3 3,6T 3,1T 324G 91% /home
tmpfs 13G 0 13G 0% /run/user/1000
tmpfs 13G 0 13G 0% /run/user/1001
Hors ligne
#25 Le 10/11/2020, à 00:07
- geole
Re : Disque sda défectueux
Finalement, je n'en suis pas sur.
Regarde la taille de SDA3 = 3.6 To idem pour SDB3 et pour et SDD3.
Regarde la taille du home c'est pareil
En raids5 Il devrait faire 7.2 To (3-1)*3.6
A mon avis en raid1, il devrait faire 5.4 To 3/2*3.6
Je ne vois qu'un seule explication: il est en RAID1 avec un disque de secours.
Je ne savais pas que c'était techniquement possible.
Il faudra que je reprenne à tête reposée mais dans ce contexte, je ne comprends pas qu'on ne déclare pas SDA4, SDA2, SDA3 en faulty, qu'on les enlève qu'on en mette un neuf, et qu'on déclare qu'il est revenu Tout cela sans arrêter la machine. en déactivant le swap de SDA4.
je ne comprend d'ailleurs pas pourquoi il n'y a pas trois partitions de swap! ni pourquoi sda1 n'est pas dupliqué sur sdb1 et tripliqué sur sdc1 ( c'est peut-être fait, il faudrait regarder le contenu des partitions).
AJOUT
Je te laisse regarder cette simulation pour un raid1 de taille 1 Go, Donc cela va très vite
#### creation d'un RAID de test de type RAID1
sudo mdadm --create /dev/md0 --level=1 --raid-devices=3 /dev/sdc17 /dev/sdc18 /dev/sdc19
mdadm: /dev/sdc17 appears to contain an ext2fs file system
size=1048576K mtime=Thu Jan 1 01:00:00 1970
mdadm: Note: this array has metadata at the start and
may not be suitable as a boot device. If you plan to
store '/boot' on this device please ensure that
your boot-loader understands md/v1.x metadata, or use
--metadata=0.90
mdadm: /dev/sdc18 appears to contain an ext2fs file system
size=1048576K mtime=Thu Jan 1 01:00:00 1970
mdadm: /dev/sdc19 appears to contain an ext2fs file system
size=15589376K mtime=Thu Jan 1 01:00:00 1970
mdadm: largest drive (/dev/sdc19) exceeds size (1046528K) by more than 1%
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
sudo mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Tue Nov 10 06:55:07 2020
Raid Level : raid1
Array Size : 1046528 (1022.00 MiB 1071.64 MB)
Used Dev Size : 1046528 (1022.00 MiB 1071.64 MB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Tue Nov 10 06:56:26 2020
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
Name : b:0 (local to host b)
UUID : 331e0e1b:11067f6d:e9799556:57614582
Events : 17
Number Major Minor RaidDevice State
0 259 1 0 active sync /dev/sdc17
1 259 2 1 active sync /dev/sdc18
2 259 3 2 active sync /dev/sdc19
lsblk -fe7 -o +size
.....
├─sdc17 linux_raid_m b:0 331e0e1b-1106-7f6d-e979-955657614582 1G
│ └─md0 1022M
├─sdc18 linux_raid_m b:0 331e0e1b-1106-7f6d-e979-955657614582 1G
│ └─md0 1022M
└─sdc19 linux_raid_m b:0 331e0e1b-1106-7f6d-e979-955657614582 14,9G
└─md0
sudo mdadm --examine /dev/sdc17 /dev/sdc18 /dev/sdc19 |grep "Device Role"
Device Role : Active device 0
Device Role : Active device 1
Device Role : Active device 2
sudo mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Tue Nov 10 06:55:07 2020
Raid Level : raid1
Array Size : 1046528 (1022.00 MiB 1071.64 MB)
Used Dev Size : 1046528 (1022.00 MiB 1071.64 MB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Tue Nov 10 06:56:26 2020
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
Name : b:0 (local to host b)
UUID : 331e0e1b:11067f6d:e9799556:57614582
Events : 17
Number Major Minor RaidDevice State
0 259 1 0 active sync /dev/sdc17
1 259 2 1 active sync /dev/sdc18
2 259 3 2 active sync /dev/sdc19
sudo mkfs.ext4 /dev/md0
mke2fs 1.45.5 (07-Jan-2020)
En train de créer un système de fichiers avec 261632 4k blocs et 65408 i-noeuds.
UUID de système de fichiers=37395ead-f22b-4b28-b860-fbd739c60fef
Superblocs de secours stockés sur les blocs :
32768, 98304, 163840, 229376
Allocation des tables de groupe : complété
Écriture des tables d'i-noeuds : complété
Création du journal (4096 blocs) : complété
Écriture des superblocs et de l'information de comptabilité du système de
fichiers : complété
sudo mkdir /media/RAID1
sudo chmod 777 /media/RAID1
sudo mount -v /dev/md0 /media/RAID1
df -h
Sys. de fichiers Taille Utilisé Dispo Uti% Monté sur
...
/dev/md0 990M 2,6M 921M 1% /media/RAID1
sudo cp -Rv /var /media/RAID1
df -h
....
/dev/md0 990M 282M 641M 31% /media/RAID1
sudo mdadm --manage /dev/md0 --set-faulty /dev/sdc17
mdadm: set /dev/sdc17 faulty in /dev/md0
cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md0 : active raid1 sdc19[2] sdc18[1]
1046528 blocks super 1.2 [3/2] [_UU]
md2 : active raid5 sdc11[0] sdc14[3] sdc12[4] sdc13[2]
3139584 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/4] [UUUU]
unused devices: <none>
a@b:~$
sudo mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Tue Nov 10 06:55:07 2020
Raid Level : raid1
Array Size : 1046528 (1022.00 MiB 1071.64 MB)
Used Dev Size : 1046528 (1022.00 MiB 1071.64 MB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Tue Nov 10 07:20:50 2020
State : clean, degraded
Active Devices : 2
Working Devices : 2
Failed Devices : 1
Spare Devices : 0
Consistency Policy : resync
Name : b:0 (local to host b)
UUID : 331e0e1b:11067f6d:e9799556:57614582
Events : 19
Number Major Minor RaidDevice State
- 0 0 0 removed
1 259 2 1 active sync /dev/sdc18
2 259 3 2 active sync /dev/sdc19
0 259 1 - faulty /dev/sdc17
sudo mdadm --manage /dev/md0 --remove /dev/sdc17
mdadm: hot removed /dev/sdc17 from /dev/md0
sudo mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Tue Nov 10 06:55:07 2020
Raid Level : raid1
Array Size : 1046528 (1022.00 MiB 1071.64 MB)
Used Dev Size : 1046528 (1022.00 MiB 1071.64 MB)
Raid Devices : 3
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Tue Nov 10 07:26:17 2020
State : clean, degraded
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
Name : b:0 (local to host b)
UUID : 331e0e1b:11067f6d:e9799556:57614582
Events : 20
Number Major Minor RaidDevice State
- 0 0 0 removed
1 259 2 1 active sync /dev/sdc18
2 259 3 2 active sync /dev/sdc19
mdadm --manage /dev/md0 --add /dev/sdc20 && cat /proc/mdstat
sudo mdadm --manage /dev/md0 --add /dev/sdc20 && cat /proc/mdstat
mdadm: added /dev/sdc20
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md0 : active raid1 sdc20[3](S) sdc19[2] sdc18[1]
1046528 blocks super 1.2 [3/2] [_UU]
Puis un peu plus tard
/proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md0 : active raid1 sdc20[3] sdc19[2] sdc18[1]
1046528 blocks super 1.2 [3/3] [UUU]
sudo mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Tue Nov 10 06:55:07 2020
Raid Level : raid1
Array Size : 1046528 (1022.00 MiB 1071.64 MB)
Used Dev Size : 1046528 (1022.00 MiB 1071.64 MB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Tue Nov 10 07:43:00 2020
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
Name : b:0 (local to host b)
UUID : 331e0e1b:11067f6d:e9799556:57614582
Events : 39
Number Major Minor RaidDevice State
3 259 4 0 active sync /dev/sdc20
1 259 2 1 active sync /dev/sdc18
2 259 3 2 active sync /dev/sdc19
Dernière modification par geole (Le 10/11/2020, à 07:52)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne