Contenu | Rechercher | Menus

Annonce

Si vous avez des soucis pour rester connecté, déconnectez-vous puis reconnectez-vous depuis ce lien en cochant la case
Me connecter automatiquement lors de mes prochaines visites.

À propos de l'équipe du forum.

#1 Le 01/09/2020, à 18:31

Bruno13

Disque sda défectueux

Bonjour à tous,

J'ai un serveur dédié chez OVH.
Depuis quelques temps je reçois un message de smartd qui m'indique que mon disque sda contient des secteurs défectueux.

Device: /dev/sda [SAT], 26 Offline uncorrectable sectors

J'ai déjà eu à changer des disques (RAID5 RAID1) mais jamais le sda.
Je me suis servi du tutoriel que propose https://docs.ovh.com/fr/dedicated/raid-soft/, qui fonctionne très bien pour sdb, sdc, etc...mais pas pour sda.

Tout ce que l'on trouve sur le net concerne le remplacement d'un sdb sdc etc...mais jamais pour sda.

Le technicien de chez OVH m'a changé le disque et a procédé à un redémarrage mais bien sûr cela n'a pas fonctionné.
J'ai eu le message suivant:

chain on hard drive failed. Next
Le serveur est démarré sur le mode rescue et est sur l'écran du rescue.

J'ai quand même essayé de suivre la procédure de re-synchronisation mais hélas sans succès.
Le service technique de chez OVH n'a pas pu m'aider non plus et m'a proposé de faire sous-traiter cette étape.

Auriez vous quelques conseils pour changer un SDA en RAID5 RAID1 sous Ubuntu ?

D'avance merci pour votre aide,
Amicalement,
Bruno

Dernière modification par Bruno13 (Le 09/11/2020, à 20:28)

Hors ligne

#2 Le 01/09/2020, à 19:34

geole

Re : Disque sda défectueux

Bonjour,  j'ai du mal à comprendre
   Lorsqu'un disque appartient à un RAID, la procédure est strictement identique pour tous les disques du RAID.
  A mon avis le SDA n'appartient pas au RAID, il contient simplement le logiciel et le technicien n'a pas réaccroché le RAID  et d'après ce que tu décris, il semble que cela soit le problème.
Voir le paragraphe 6.1 de cette documentation  https://doc.ubuntu-fr.org/raid_logiciel  en particulier la commande   mdadm --assemble

Dernière modification par geole (Le 01/09/2020, à 19:35)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne

#3 Le 01/09/2020, à 20:02

Bruno13

Re : Disque sda défectueux

N'étant pas du tout un spécialiste, je n'ai pas encore bien saisi les infos dans la section que vous m'indiquez.

Cependant, voici quelques infos que j'ai pu copier/coller lorsque j'avais fait la manip lors du changement (j'ai depuis remis l'ancien disque défectueux n'ayant pas trouvé de solution)
Pour info ce sont 3 disques de 4To chacun.
Je n'ai pas d'autre infos hélas des manips que j'avais pu faire.

Si par hasard vous voyez quelque chose qui vous interpelle, n'hésitez pas à me le signaler, cela fera peut être avancé mon problème.

Tout d'abord un cat /proc/mdstat

root@rescue:~# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md2 : active raid1 sdb2[1] sdc2[2]
      20478912 blocks [3/2] [_UU]

md3 : active raid1 sdb3[1] sdc3[2]
      3885486016 blocks [3/2] [_UU]
      bitmap: 0/29 pages [0KB], 65536KB chunk

unused devices: <none>

Ensuite j'ai essayé de faire (sdb disque sain) : sfdisk -d /dev/sdb | sfdisk --force /dev/sda
J'avoue que le partitionnement sda1 sda2 sda3 sda4 me laisse dubitatif...


root@rescue:~# sfdisk -d /dev/sdb | sfdisk --force /dev/sda
sfdisk: Checking that no-one is using this disk right now ...
sfdisk: OK

Disk /dev/sda: 486401 cylinders, 255 heads, 63 sectors/track
Old situation:
Units: cylinders of 8225280 bytes, blocks of 1024 bytes, counting from 0

   Device Boot Start     End   #cyls    #blocks   Id  System
/dev/sda1          0+ 267349- 267350- 2147483647+  ee  GPT
/dev/sda2          0       -       0          0    0  Empty
/dev/sda3          0       -       0          0    0  Empty
/dev/sda4          0       -       0          0    0  Empty
New situation:
Units: sectors of 512 bytes, counting from 0

   Device Boot    Start       End   #sectors  Id  System
/dev/sda1             1 4294967295 4294967295  ee  GPT
/dev/sda2             0         -          0   0  Empty
/dev/sda3             0         -          0   0  Empty
/dev/sda4             0         -          0   0  Empty
sfdisk: Warning: partition 1 does not end at a cylinder boundary
sfdisk: Warning: no primary partition is marked bootable (active)
This does not matter for LILO, but the DOS MBR will not boot this disk.
Successfully wrote the new partition table

Re-reading the partition table ...

sfdisk: If you created or changed a DOS partition, /dev/foo7, say, then use dd(1)
to zero the first 512 bytes:  dd if=/dev/zero of=/dev/foo7 bs=512 count=1
(See fdisk(8).)

Dernière modification par Ayral (Le 01/09/2020, à 23:37)

Hors ligne

#4 Le 01/09/2020, à 21:41

geole

Re : Disque sda défectueux

Bonsoir.
Je me suis trompé, Le disque SDA faisait trés certainement partie d'un ensemble de  deux raid5.

J'ai lu le début procédure. Elle me semble correcte.

Spécialement le début qui consiste à dire que c'est en erreur.

sudo mdadm --fail /dev/md2 /dev/sda2
sudo mdadm --fail /dev/md3 /dev/sda3

Puis la suite avec la même logique. Je pense  que tu l'as fait.
Tu en serais donc à l'étape de reconstrution.

Le tuto montre  comment refabriquer la table de partition à l'image du disque sdb

sfdisk -d /dev/sdb | sfdisk /dev/sda 

Effectivement le résultat est suprenant.....
Pourrais-tu regarder comment est le disque de référence.

sudo sfdisk   -l    /dev/sdb

Par précaution

sudo sfdisk -l  /dev/sdc

Je suis surpris de ne pas voir md1 et que la  taille des partitions 2 et 3
ne fasse pas envlron 4To qui est la taille du disque.

Je suis aussi surpris que la procédure du paragraphe 5.2 de la documentation que je t'ai indiquée ne puisse pas être appliquée car elle me semble plus simple.

Dernière modification par geole (Le 01/09/2020, à 23:31)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne

#5 Le 01/09/2020, à 23:28

geole

Re : Disque sda défectueux

Pour ton disque défectueux, pourrais-tu faire un rapport smartctl

sudo apt install smartmontools
sudo smartctl -s on    -a  /dev/sda

On verra alors s'il suffit de le reformater pour le remettre  dans le raid5 ou  s'il doit aller à la poubelle  car il y a plus que des secteurs défectueux.

Dernière modification par geole (Le 01/09/2020, à 23:32)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne

#6 Le 02/09/2020, à 09:51

Bruno13

Re : Disque sda défectueux

Re-Bonjour,

Voici les 3 sfdisk que je viens de faire (pour mémoire, le sda est celui qui est défectueux)
Autre chose OVH change gratuitement le disque défectueux.

Disk /dev/sda: 3,7 TiB, 4000787030016 bytes, 7814037168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 82F20D47-9089-4292-A13F-F83F7CEC5E65

Device          Start        End    Sectors  Size Type
/dev/sda1        2048    1048575    1046528  511M EFI System
/dev/sda2     1048576   42006527   40957952 19,5G Linux RAID
/dev/sda3    42006528 7812978687 7770972160  3,6T Linux RAID
/dev/sda4  7812978688 7814025215    1046528  511M Linux swap
Disk /dev/sdb: 3,7 TiB, 4000787030016 bytes, 7814037168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 82F20D47-9089-4292-A13F-F83F7CEC5E65

Device          Start        End    Sectors  Size Type
/dev/sdb1        2048    1048575    1046528  511M EFI System
/dev/sdb2     1048576   42006527   40957952 19,5G Linux RAID
/dev/sdb3    42006528 7812978687 7770972160  3,6T Linux RAID
/dev/sdb4  7812978688 7814025215    1046528  511M Linux swap
Disk /dev/sdc: 3,7 TiB, 4000787030016 bytes, 7814037168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 82F20D47-9089-4292-A13F-F83F7CEC5E65

Device          Start        End    Sectors  Size Type
/dev/sdc1        2048    1048575    1046528  511M EFI System
/dev/sdc2     1048576   42006527   40957952 19,5G Linux RAID
/dev/sdc3    42006528 7812978687 7770972160  3,6T Linux RAID
/dev/sdc4  7812978688 7814025215    1046528  511M Linux swap

Et voici le smartctl sur sda:

smartctl 6.5 2016-01-24 r4214 [x86_64-linux-3.14.32-xxxx-grs-ipv6-64] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Device Model:     HGST HUS726040ALA610
Serial Number:    N8H3NKXY
LU WWN Device Id: 5 000cca 244cfc1dd
Firmware Version: A5GNT907
User Capacity:    4 000 787 030 016 bytes [4,00 TB]
Sector Size:      512 bytes logical/physical
Rotation Rate:    7200 rpm
Form Factor:      3.5 inches
Device is:        Not in smartctl database [for details use: -P showall]
ATA Version is:   ACS-2, ATA8-ACS T13/1699-D revision 4
SATA Version is:  SATA 3.1, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is:    Wed Sep  2 09:44:31 2020 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x82) Offline data collection activity
                                        was completed without error.
                                        Auto Offline Data Collection: Enabled.
Self-test execution status:      (   0) The previous self-test routine completed
                                        without error or no self-test has ever
                                        been run.
Total time to complete Offline
data collection:                (  113) seconds.
Offline data collection
capabilities:                    (0x5b) SMART execute Offline immediate.
                                        Auto Offline data collection on/off support.
                                        Suspend Offline collection upon new
                                        command.
                                        Offline surface scan supported.
                                        Self-test supported.
                                        No Conveyance Self-test supported.
                                        Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                                        power-saving mode.
                                        Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                                        General Purpose Logging supported.
Short self-test routine
recommended polling time:        (   2) minutes.
Extended self-test routine
recommended polling time:        ( 571) minutes.
SCT capabilities:              (0x003d) SCT Status supported.
                                        SCT Error Recovery Control supported.
                                        SCT Feature Control supported.
                                        SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000b   100   100   016    Pre-fail  Always       -       0
  2 Throughput_Performance  0x0005   137   137   054    Pre-fail  Offline      -       104
  3 Spin_Up_Time            0x0007   100   100   024    Pre-fail  Always       -       0
  4 Start_Stop_Count        0x0012   100   100   000    Old_age   Always       -       8
  5 Reallocated_Sector_Ct   0x0033   100   100   005    Pre-fail  Always       -       7
  7 Seek_Error_Rate         0x000b   100   100   067    Pre-fail  Always       -       0
  8 Seek_Time_Performance   0x0005   128   128   020    Pre-fail  Offline      -       18
  9 Power_On_Hours          0x0012   097   097   000    Old_age   Always       -       27665
 10 Spin_Retry_Count        0x0013   100   100   060    Pre-fail  Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       8
192 Power-Off_Retract_Count 0x0032   100   100   000    Old_age   Always       -       1045
193 Load_Cycle_Count        0x0012   100   100   000    Old_age   Always       -       1045
194 Temperature_Celsius     0x0002   187   187   000    Old_age   Always       -       32 (Min/Max 25/55)
196 Reallocated_Event_Count 0x0032   100   100   000    Old_age   Always       -       7
197 Current_Pending_Sector  0x0022   100   100   000    Old_age   Always       -       5
198 Offline_Uncorrectable   0x0008   100   100   000    Old_age   Offline      -       26
199 UDMA_CRC_Error_Count    0x000a   200   200   000    Old_age   Always       -       0

SMART Error Log Version: 1
ATA Error Count: 5
        CR = Command Register [HEX]
        FR = Features Register [HEX]
        SC = Sector Count Register [HEX]
        SN = Sector Number Register [HEX]
        CL = Cylinder Low Register [HEX]
        CH = Cylinder High Register [HEX]
        DH = Device/Head Register [HEX]
        DC = Device Command Register [HEX]
        ER = Error register [HEX]
        ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.

Error 5 occurred at disk power-on lifetime: 26916 hours (1121 days + 12 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 41 00 00 00 00 00  Error: UNC at LBA = 0x00000000 = 0

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  60 08 58 40 df be 40 08  32d+12:02:05.036  READ FPDMA QUEUED
  60 08 50 38 df be 40 08  32d+12:02:02.277  READ FPDMA QUEUED
  60 08 48 30 df be 40 08  32d+12:02:02.277  READ FPDMA QUEUED
  61 08 40 30 df be 40 08  32d+12:02:02.277  WRITE FPDMA QUEUED
  ef 10 02 00 00 00 a0 08  32d+12:02:02.247  SET FEATURES [Enable SATA feature]

Error 4 occurred at disk power-on lifetime: 26916 hours (1121 days + 12 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 41 00 00 00 00 00  Error: UNC at LBA = 0x00000000 = 0

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  60 08 38 30 df be 40 08  32d+12:02:02.078  READ FPDMA QUEUED
  60 08 30 28 df be 40 08  32d+12:01:59.330  READ FPDMA QUEUED
  60 08 28 20 df be 40 08  32d+12:01:59.330  READ FPDMA QUEUED
  60 08 20 18 df be 40 08  32d+12:01:59.330  READ FPDMA QUEUED
  60 08 18 10 df be 40 08  32d+12:01:59.330  READ FPDMA QUEUED

Error 3 occurred at disk power-on lifetime: 26916 hours (1121 days + 12 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 41 00 00 00 00 00  Error: UNC at LBA = 0x00000000 = 0

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  60 00 00 00 df be 40 08  32d+12:01:59.103  READ FPDMA QUEUED
  60 00 f0 00 de be 40 08  32d+12:01:56.357  READ FPDMA QUEUED
  60 00 e8 00 dd be 40 08  32d+12:01:56.355  READ FPDMA QUEUED
  60 00 e0 00 dc be 40 08  32d+12:01:56.352  READ FPDMA QUEUED
  60 00 d8 00 db be 40 08  32d+12:01:56.349  READ FPDMA QUEUED

Error 2 occurred at disk power-on lifetime: 26748 hours (1114 days + 12 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 41 00 00 00 00 00  Error: UNC at LBA = 0x00000000 = 0

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  60 08 40 90 24 b8 40 08  25d+12:02:07.932  READ FPDMA QUEUED
  60 08 38 88 24 b8 40 08  25d+12:02:05.182  READ FPDMA QUEUED
  60 08 30 80 24 b8 40 08  25d+12:02:05.182  READ FPDMA QUEUED
  60 08 28 78 24 b8 40 08  25d+12:02:05.146  READ FPDMA QUEUED
  60 08 20 70 24 b8 40 08  25d+12:02:05.146  READ FPDMA QUEUED

Error 1 occurred at disk power-on lifetime: 26748 hours (1114 days + 12 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 41 00 00 00 00 00  Error: UNC at LBA = 0x00000000 = 0

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  60 00 10 d8 23 b8 40 08  25d+12:02:04.848  READ FPDMA QUEUED
  60 00 08 d8 22 b8 40 08  25d+12:02:02.085  READ FPDMA QUEUED
  60 00 00 d8 21 b8 40 08  25d+12:02:02.083  READ FPDMA QUEUED
  60 00 f0 d8 20 b8 40 08  25d+12:02:02.082  READ FPDMA QUEUED
  60 00 e8 d8 1f b8 40 08  25d+12:02:02.080  READ FPDMA QUEUED

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed without error       00%         2         -
# 2  Short offline       Completed without error       00%         1         -
# 3  Short offline       Completed without error       00%         0         -

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

Merci pour le temps passé à répondre à me question, c'est sympa
Bruno

Hors ligne

#7 Le 02/09/2020, à 11:23

geole

Re : Disque sda défectueux

Bonjour.

Finalement, je n'en étais pas loin . En fait le logiciel est installé en technique RAID5 dans MD2 et le /home est installé en technique RAID5 dans MD3.

Il n'y a pas de MD1 car la  structure utilisée pour booter en EFI est sur SDA1   et potentiellement sur SDB1 et SDC1.
 
Donc la partition /dev/sda1   contient la totalité des fichiers de boot. Ce qui explique pourquoi le boot devient impossible lorsque le disque est absent.

Si l'installation avait parfaitement été faite, cette partition aurait été dupliquée et tu pourrais booter.

On va  partir du principe que cela n'a pas été fait.

A) Booter avec le vieux disque si c'est encore possible.
B) Démonter les potentielles partitions de boot au cas où elles seraient montées  spécialement sda1

sudo umount  -v  /dev/sda1
sudo umount  -v  /dev/sdb1
sudo umount  -v  /dev/sdc1

C) installer l'application GPARTED si pas encore fait

sudo apt install gparted

D) La lancer

gparted

E) 1- Se positionner sur SDA1 , faire copier, Se positionner sur SDB1 et faire coller
     2- Se positionner sur SDB1, Rechercher la ligne proposant de changer le UUID et faire le changement.
F) 1- Se positionner sur SDA1 , faire copier, Se positionner sur SDC1 et faire coller
     2- Se positionner sur SDC1, Rechercher la ligne proposant de changer le UUID et faire le changement.
     Cette action de changement de UUID pour les deux partitions permet de  ne pas avoir plusieurs partitions identiques.   Un plantage de UBUNTU  est possible si la  présence de plusieurs partitions identiques est détectée.  Cela permet de  pouvoir éventuellement repartir avec  le vieil SDA !
H) Quitter GPARTED et remonter la partition SDA1.

    sudo mount -v  /dev/sda1

I) Mettre à jour la NVRAM avec ces commandes

sudo efibootmgr  --create      --disk     /dev/sdc   --part    1      --label     "shimC"      --loader      "\EFI\ubuntu\shimx64.efi"
sudo efibootmgr  --create      --disk     /dev/sdb   --part    1      --label     "shimB"      --loader      "\EFI\ubuntu\shimx64.efi"

L'ordre n'a pas d'importance car on va modifier le fichier /etc/fstab
j)  Commenter toutes les ligne évoquant SDA dans le fichier /etc/fstab

 gedit admin:///etc/fstab

    La suite a montré que les partitions sont définies par leur nom et pas par leur UUID qu'il devient inutile de préserver.
    Puis fournir un boot-info permettant une vérification de la réalisation

K) Le soir du grand jour, Arrêter l'ordinateur,  remplacer le disque SDA et rebooter. Cela devrait booter.
L)  Remettre en état les deux  RAIDS sur trois disques
M) vérifier la structure du nouvel SDA.  Il faudra certainement lui créer une partition de swap avec l'espace restant
N) Redécommenter  les lignes qui évoquent SDA.
O) Faire prendre en compte la partition de swap nouvellement créée.

sudo swapon /dev/sda4

J'ai noté que le remplacement du disque est gratuit.
Vu l'erreur rencontrée, il est à remplacer car un ennui sur le secteur 0 est un risque de refus de boot potentiel (heureusement qu'il en existe un double en GPT)

Error 5 occurred at disk power-on lifetime: 26916 hours (1121 days + 12 hours) Error: UNC at LBA = 0x00000000 = 0

Sa remise en état passerait  par la création d'une table de partition.

Dernière modification par geole (Le 02/09/2020, à 17:17)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne

#8 Le 02/09/2020, à 13:31

Bruno13

Re : Disque sda défectueux

Geole,

Tout d'abord vraiment merci pour le temps que tu passes et la précision de tes réponses.

En lisant tout ce que tu as écrit, je vais programmer d'ici peu un changement de disque.
Mais avant cela, je veux un peu comprendre les différentes manips que tu as détaillé.

Aurais tu quelques instants encore pour répondre à ces quelques questions.

Quand tu dis: "Si l'installation avait parfaitement été faite", je suppose que tu parles de l'installation d'ovh ?
car le serveur m'a été livré tel quel pour le RAID.

Voici mes autres interrogations:

A) oui c'est possible. actuellement le disque défectueux est en place, mon serveur est en prod' et est fonctionnel.
Pour bien comprendre, il y a un an j'ai changé le sdc sans problème avec la doc ovh.
Je pensais que le faire pour le sda n'allait pas être un problème.
ovh a changé le sda suite à ma demande mais hélas on a dû remettre l'ancien car le boot était en rescue et la synchro impossible.

B) je suppose que c'est pour pouvoir faire les manips sur ces partitions ?

C) D) oui c'est fait, juste un détail, je dois utiliser sudo pour le lancer.

E) F) les partitions sda1, sdb1, sdc1 étant encore montées, le copier/coller n'est pas actif dans gparted, je pense que c'est normal non ?

G) J'ai juste un menu "New UUID" (grisé), mais que vais-je devoir mettre ?
Une petite chose qui m'interpelle, pour sdb et sdc sous gparted j'ai ça pour "Partition"->"Information"
Est-ce normal ?
http://matheo2.free.fr/gparted.png

H) ok

I) ok je respecte l'ordre

J) ok, je ferais ça juste avant le remplacement du disque.

QUESTION: est-ce que si cela ne fonctionne pas, je pourrais remettre l'ancien que je l'ai fait la dernière fois ?
Car je vais sûrement faire ça un vendredi dans la soirée pour éviter de géner nos utilisateurs.

QUESTION 2: au reboot du serveur, je dois faire la resynchronisation des disques je suppose aussi ?


Modération : merci d'utiliser des images de petite taille (300x300) ou des miniatures pointant sur ces images (Des hébergeurs comme Toile Libre ou TDCT'Pix le permettent).

Dernière modification par cqfd93 (Le 02/09/2020, à 13:51)

Hors ligne

#9 Le 02/09/2020, à 14:13

geole

Re : Disque sda défectueux

On va y aller doucement car j'avais oublié cette phrase
"ovh a changé le sda suite à ma demande mais hélas on a dû remettre l'ancien car le boot était en rescue et la synchro impossible."

Donc à priori, le boot  avait bien mis en route!

Dans ta capture d'écran, le jaune  ne me surprend pas trop, en revanche que le type de partition soit déclaré inconnu n'est pas normal.
Comme ton ordinateur fonctionne (c'est le principe du RAID), je propose d'installer l'application boot-info. Tu posteras l'URL qui sera générée. Elle permettra de voir en détail de contenu et de confirmer ou d'infirmer le problème des partitions SDB1 et SDC1. Bien entendu, tu diras qu'il y a un RAID dans la machine https://doc.ubuntu-fr.org/tutoriel/boot-info
Peut-être pourrais-je y voir la raison du rescue.   Dans ce contexte, tout ce dont tu te souviens comme message d'erreur serait un plus ....

Réponse 1   Tant que l'ancien SDA permet de rebooter, sinon, cela serait avec un support d'installation de UBUNTU. J'espère que tu en as un.

Réponse 2,  Lorsque le nouveau disque  sera installé  et que tu auras booté , Il faudra lancer la synchro . Il me semble que c'est bien décrit dans le document.
Commence par MD2 qui est le logiciel  et a une petite taille. Lorsque cela sera fini, tu pourras  faire MD3. Cela prendra du temps mais tu le sais.


Si tu souhaites  avoir un avis sur la qualité des disques SDB et SDC, ne t'en prive pas. en faisant deux smartctl

Dernière modification par geole (Le 02/09/2020, à 14:22)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne

#10 Le 02/09/2020, à 14:28

Bruno13

Re : Disque sda défectueux

Voici le lien vers mon boot-info que je viens de faire:

http://paste.ubuntu.com/p/6GgHrqxXFm/

Réponse 1   Tant que l'ancien SDA permet de rebooter, sinon, cela serait avec un support d'installation de UBUNTU. J'espère que tu en as un.

Je ne sais pas du tout, comment puis je en avoir un ?

Réponse 2: oui ok après je sais faire.

Les 2 autres disques sont sains (je viens de faire un smatrctl)

Dernière modification par Bruno13 (Le 02/09/2020, à 14:33)

Hors ligne

#11 Le 02/09/2020, à 15:32

geole

Re : Disque sda défectueux

Au vu du boot-info

sda1: __________________________________________________________________________
    File system:       vfat
    Boot sector type:  FAT32
    Boot files:        /efi/ubuntu/grubx64.efi
sdb1: __________________________________________________________________________
    File system:  
sdc1: __________________________________________________________________________
    File system:  

           Start        End    Sectors  Size Type
sda1        2048    1048575    1046528  511M EFI System
sdc1        2048    1048575    1046528  511M EFI System
sdb1        2048    1048575    1046528  511M EFI System

NAME    FSTYPE            UUID                                 PARTUUID                             LABEL       PARTLABEL                                                                                                      
├─sda1  vfat              D326-0803                            c54f025f-b2d1-488d-93c4-f9d85fa24374 EFI_SYSPART primary                                                                
├─sdb1                                                         c54f025f-b2d1-488d-93c4-f9d85fa24374             primary                                                                                                            
├─sdc1                                                         c54f025f-b2d1-488d-93c4-f9d85fa24374             primary

PARTID
Je vais te demander un complément d'information pour ces deux partitions ayant le même PARTUUID que SDA et ayant certainement un drapeau de boot
1)  création de points de montage

sudo   mkdir /tmp/B
sudo  mkdir /tmp/C

2) Démontage des partitions au cas où elles seraient montées quelque part.

sudo umount -v /dev/sdb1
sudo umount -v /dev/sdc1

3) Montage des partitions

sudo mount  -v  /dev/sdb1  /tmp/B
sudo mount  -v  /dev/sdc1  /tmp/C

4) Exploration du contenu

sudo ls -rals /tmp/B
sudo ls -rals /tmp/C

NOTA.  En fait tu n'as pas physiquement  la possibilité de booter... Si incident de boot, cela se résout par le réseau

BootCurrent: 0005
BootOrder: 0004,0005,0006,0007,0008,0009,0002,0001,000A
Boot0001  ubuntu1604-server_64 (GRUB) (first drive sda)	HD(1,GPT,c54f025f-b2d1-488d-93c4-f9d85fa24374,0x800,0xff800)/File(\EFI\UBUNTU\GRUBX64.EFI)
Boot0005* UEFI: IP4 Intel(R) I350 Gigabit Network Connection	PciRoot(0x0)/Pci(0x3,0x3)/Pci(0x0,0x0)/MAC(ac1f6b00c078,1)/IPv4(0.0.0.0:0<->0.0.0.0:0,0,0)..BO

et pas avec une live-usb
J'ai noté ta version en 16.04.  Il faudra penser ầ la faire évoluer en 18.04  avant avril 2021 puis  en 20.04

Dernière modification par geole (Le 02/09/2020, à 15:35)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne

#12 Le 02/09/2020, à 15:41

Bruno13

Re : Disque sda défectueux

2) Démontage des partitions au cas où elles seraient montées quelque part.

là j'ai un petit soucis, le serveur étant en prod, je ne peux pas me permettre sans prévenir au moins 48h à l'avance les utilisateurs que le service va être indisponible.

Du coup, je suis pas trop chaud pour faire un umount.
ça m'embête car tes conseils me permettent d'avancer dans ma recherche de remplacement de disque.

N'existe t il pas une commande pour savoir si sdb1 et sdc1 sont montés quelque part avant de les démonter ?
Si je les démonte brut de coffre là, je risque quoi réellement ?

Concernant la version, oui j'ai vu que j'étais en 16 et qu'il y avait la 18 puis 20 dispo. je m'en occuperai plus tard. merci pour l'info

Hors ligne

#13 Le 02/09/2020, à 15:51

geole

Re : Disque sda défectueux

Je pense avoir trouvé une cause du plantage  lorsque le disque SDA est absent
=========================== md2/etc/fstab (filtered) ===========================
# <file system>    <mount point>    <type>    <options>    <dump>    <pass>
/dev/md2    /    ext4    errors=remount-ro,relatime    0    1
/dev/md3    /home    ext4    defaults,relatime    1    2
/dev/sda4    swap    swap    defaults    0    0
/dev/sdb4    swap    swap    defaults    0    0
/dev/sdc4    swap    swap    defaults    0    0
proc        /proc    proc    defaults        0    0
sysfs        /sys    sysfs    defaults        0    0
/dev/sda1    /boot/efi    vfat    defaults,relatime    0    0
devtmpfs    /dev    devtmpfs    rw    0    0

J'ai le souvenir qu'en version 16.04, lorsqu'une partition listée dans ce fichier est absente, cela plante.
Mais il  devrait y avoir un message disant qu'il y a quelque chose d'absent

Je te propose donc  modifier  gedit admin:///etc/fstab  en commentant les deux lignes évoquant SDA le temps que  le problème soit résolu.


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne

#14 Le 02/09/2020, à 15:58

geole

Re : Disque sda défectueux

Plus simple, ne lance pas le démontage et fait directement le montage, si elles sont montées, tu te feras injurier, tu lanceras alors la commande mount pour trouver où....   et on listera directement du point de montage

Mais je m'attends à avoir un message disant que le montage n'est pas possible  car le type de partition est inconnu.  Ce qui validera alors la proposition de  duplication par GPARTED

Dernière modification par geole (Le 02/09/2020, à 15:59)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne

#15 Le 02/09/2020, à 15:58

Bruno13

Re : Disque sda défectueux

Je te propose donc  modifier  gedit admin:///etc/fstab  en commentant les deux lignes évoquant SDA le temps que  le problème soit résolu.

Quelle conséquence cela peut avoir sur le système si je fais cela tout de suite ?
Le serveur tourne actuellement et je ne voudrais pas corrompre quoi que ce soit roll

De plus, je ne pourrais demander le changement de disque que vendredi soir prochain ou le même jour de la semaine d'après.

Hors ligne

#16 Le 02/09/2020, à 16:04

geole

Re : Disque sda défectueux

Aucune conséquence, tant que le reboot n'a pas eu lieu. Tu peux ne le faire que quelques heures avant le reboot. Ce fichier n'est lu qu'a chaque boot et lors des commandes de mises à jour logicielles pour trouver où mettre à jour le grub.

Tu as confirmé que les deux autres disques sont en parfait état... Alors tu as tout le temps que tu veux  pour changer le disque.


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne

#17 Le 02/09/2020, à 16:08

Bruno13

Re : Disque sda défectueux

geole a écrit :

Aucune conséquence, tant que le reboot n'a pas eu lieu. Tu peux ne le faire que quelques heures avant le reboot. Ce fichier n'est lu qu'a chaque boot et lors des commandes de mises à jour logicielles pour trouver où mettre à jour le grub.

Tu as confirmé que les deux autres disques sont en parfait état... Alors tu as tout le temps que tu veux  pour changer le disque.

ok merci pour l'info. Et parfait pour le timing.

J'ai fait un mount de /dev/sdc1 et j'ai obtenu:

xxxxx@xxxxx:~$ sudo mount -v /dev/sdc1 /home/xxxxx/tmp/C
mount: /dev/sdc1 is write-protected, mounting read-only
NTFS signature is missing.
Failed to mount '/dev/sdc1': Invalid argument
The device '/dev/sdc1' doesn't seem to have a valid NTFS.
Maybe the wrong device is used? Or the whole disk instead of a
partition (e.g. /dev/sda, not /dev/sda1)? Or the other way around?

ça confirme ce que tu penses ?

Hors ligne

#18 Le 02/09/2020, à 16:39

geole

Re : Disque sda défectueux

Cela ne me surprend  pas trop.  Il a pensé que cela pouvait être  un NTFS. Je ne savais pas ce qu'il allait en dire.
Même s'ils ont mis un double de la structure de boot dedans, elle est devenue inaccessible.

Comme tu as écris "Le service technique de chez OVH n'a pas pu m'aider non plus et m'a proposé de faire sous-traiter cette étape".
C'est toi qui voit les conditions de sous-traitance
Sinon, je pense  que transférer  SDA1 dans SDB1 et SDC1 puis modifier le UUID de SDC1    ansi que SDB1 nouveauté pour se prémunir d'un raté nécessitant la  réinstallation de SDA1,    puis mise à jour de la NVRAM     afin de mettre cette nouvelle structure de boot prioritaire et rectification du /etc/fstab  afin de ne plus avoir de trace de SDA    devrait suffire pour réussir le boot. 

(Je reporte tout cela dans le début)

La préparation peut se faire à l'avance et un nouveau boot-info permettra de le vérifier.

Dernière modification par geole (Le 02/09/2020, à 16:41)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne

#19 Le 02/09/2020, à 16:47

Bruno13

Re : Disque sda défectueux

Bien bon, je vais préparer tout cela pour à mon avis pas ce vendredi mais le vendredi de la semaine prochaine.

En espérant que le boot se passe bien ET qu'ensuite j'arrive à faire la synchronisation de sda avec les 2 autres disques.
Je décommenterai ensuite les 2 lignes dans le fstab concernant sda

Je te remercie pour ton aide, et ne manquerai pas de revenir sur ce post pour t'indiquer si tout s'est bien passé.

Merci Geole !

Hors ligne

#20 Le 09/11/2020, à 19:34

Bruno13

Re : Disque sda défectueux

Re-Bonjour Geole,

Depuis le temps je suis toujours au même point et même pire...le disque se dégrade et surtout je viens de me relire, j'ai écrit RAID5 alors que c'est RAID1 !!!!
Mais bon je suppose que ça ne change pas grand chose au fil des messages.
RAID1 = 3*4To = 4To de data
RAID5 = 3*4To = 8To env de data (dommage, cela m'aurait bien servi plus de place)

Il va falloir que je le change, mais je suis super fébrile car si je perds tout, c'est la cata assurée...
Par hasard, tu ne fais pas de prestation ?

Hors ligne

#21 Le 09/11/2020, à 20:15

geole

Re : Disque sda défectueux

Bonjour

Bruno13 a écrit :

, j'ai écrit RAID5 alors que c'est RAID1 !!!!

je n'ai pas fais très attention en te croyant mais en reprenant, j'aurais du être alerté par ce retour.

root@rescue:~# Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md2 : active raid1 sdb2[1] sdc2[2]
      20478912 blocks [3/2] [_UU]

md3 : active raid1 sdb3[1] sdc3[2]
      3885486016 blocks [3/2] [_UU]
      bitmap: 0/29 pages [0KB], 65536KB chunk

unused devices: <none>

== SDA n'est pas dans la liste !!!!!!

Rectificatif   En lisant active raid1 

Peux-tu donner le retour de

sudo lsblk -fe7 -o +size
Bruno13 a écrit :

Par hasard, tu ne fais pas de prestation ?

A moins d'un kilomètre de chez moi, il y a deux ou trois maisons

Dernière modification par geole (Le 10/11/2020, à 01:24)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne

#22 Le 09/11/2020, à 20:27

Bruno13

Re : Disque sda défectueux

Salut Geole,

oui j'avoue que c'est en ayant le support OVH tout à l'heure au téléphone qu'il m'a dit que c'était un Raid1.
Parce qu'il m'a dit que je devais avoir env. 8To de data avec 3*4To en Raid5.
Bref...

Pour la commande:

sudo lsblk -fe7 -o +size

j'obtiens:

NAME    FSTYPE            LABEL       UUID                                 MOUNTPOINT  SIZE
sda                                                                                    3,7T
├─sda1  vfat              EFI_SYSPART D326-0803                                        511M
├─sda2  linux_raid_member             282a9acc-8baf-f68b-a4d2-adc226fd5302            19,5G
│ └─md2 ext4              /           0b160a51-0c1d-48ad-853b-b99c5ddca6b7 /          19,5G
├─sda3  linux_raid_member             5acd7322-99c9-981e-a4d2-adc226fd5302             3,6T
│ └─md3 ext4              /home       0284f213-cf5c-45fd-8be9-618456ead3f8 /home       3,6T
└─sda4  swap              swap-sda4   42a1be76-9fef-43b4-9a5f-552ab9e01d26 [SWAP]      511M
sdb                                                                                    3,7T
├─sdb1                                                                                 511M
├─sdb2  linux_raid_member             282a9acc-8baf-f68b-a4d2-adc226fd5302            19,5G
│ └─md2 ext4              /           0b160a51-0c1d-48ad-853b-b99c5ddca6b7 /          19,5G
├─sdb3  linux_raid_member             5acd7322-99c9-981e-a4d2-adc226fd5302             3,6T
│ └─md3 ext4              /home       0284f213-cf5c-45fd-8be9-618456ead3f8 /home       3,6T
└─sdb4                                                                                 511M
sdc                                                                                    3,7T
├─sdc1                                                                                 511M
├─sdc2  linux_raid_member             282a9acc-8baf-f68b-a4d2-adc226fd5302            19,5G
│ └─md2 ext4              /           0b160a51-0c1d-48ad-853b-b99c5ddca6b7 /          19,5G
├─sdc3  linux_raid_member             5acd7322-99c9-981e-a4d2-adc226fd5302             3,6T
│ └─md3 ext4              /home       0284f213-cf5c-45fd-8be9-618456ead3f8 /home       3,6T
└─sdc4                                                                                 511M
ram0                                                                                     4M
ram1                                                                                     4M
ram2                                                                                     4M
ram3                                                                                     4M
ram4                                                                                     4M
ram5                                                                                     4M
ram6                                                                                     4M
ram7                                                                                     4M
ram8                                                                                     4M
ram9                                                                                     4M
ram10                                                                                    4M
ram11                                                                                    4M
ram12                                                                                    4M
ram13                                                                                    4M
ram14                                                                                    4M
ram15                                                                                    4M

== SDA n'est pas dans la liste !!!!!!

Là je pense que c'était normal, parce que c'était un copier/coller lorsqu'il m'avait mis le nouveau disque.
Donc rien n'avait encore été fait. (ensuite j'ai demandé à remettre l'ancien)

Dernière modification par Bruno13 (Le 10/11/2020, à 09:57)

Hors ligne

#23 Le 09/11/2020, à 20:52

geole

Re : Disque sda défectueux

Ici tu as bien un RAID avec trois disques

├─sda3  linux_raid_member             5acd7322-99c9-981e-a4d2-adc226fd5302             3,6T
│ └─md3 ext4              /home       0284f213-cf5c-45fd-8be9-618456ead3f8 /home
├─sdb3  linux_raid_member             5acd7322-99c9-981e-a4d2-adc226fd5302             3,6T
│ └─md3 ext4              /home       0284f213-cf5c-45fd-8be9-618456ead3f8 /home
├─sdc3  linux_raid_member             5acd7322-99c9-981e-a4d2-adc226fd5302             3,6T
│ └─md3 ext4              /home       0284f213-cf5c-45fd-8be9-618456ead3f8 /home

 
Donc  un espace disponible de 7,2 To pour le /home
Correctif.  Ce n'est pas le cas, il y a 3,6 ce qui correspond effectivement à duraid1

Dernière modification par geole (Le 10/11/2020, à 01:26)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne

#24 Le 09/11/2020, à 21:03

Bruno13

Re : Disque sda défectueux

tu es sûr ?

xxxxxx@xxxx:~$ df -h
Filesystem      Size  Used Avail Use% Mounted on
/dev/root        20G  5,8G   13G  32% /
devtmpfs         63G     0   63G   0% /dev
tmpfs            63G  8,0K   63G   1% /dev/shm
tmpfs            63G  4,1G   59G   7% /run
tmpfs           5,0M     0  5,0M   0% /run/lock
tmpfs            63G     0   63G   0% /sys/fs/cgroup
/dev/md3        3,6T  3,1T  324G  91% /home
tmpfs            13G     0   13G   0% /run/user/1000
tmpfs            13G     0   13G   0% /run/user/1001

Hors ligne

#25 Le 10/11/2020, à 01:07

geole

Re : Disque sda défectueux

Finalement, je n'en suis pas sur.
Regarde la taille de SDA3  = 3.6 To idem pour SDB3 et pour et SDD3.
Regarde la taille du home  c'est pareil
En raids5  Il devrait faire  7.2 To (3-1)*3.6
A mon avis en raid1, il devrait faire 5.4 To 3/2*3.6
Je ne vois qu'un seule explication: il est  en RAID1 avec un disque de secours.
Je ne savais pas que c'était techniquement possible.
Il faudra que je reprenne à tête reposée mais dans ce contexte, je ne comprends pas qu'on ne déclare pas  SDA4, SDA2, SDA3  en faulty, qu'on les enlève  qu'on en mette un neuf, et qu'on déclare qu'il est revenu Tout cela sans arrêter la machine. en déactivant le swap de SDA4.
je ne comprend d'ailleurs pas pourquoi il n'y a pas trois partitions de swap! ni pourquoi sda1 n'est pas dupliqué  sur sdb1 et tripliqué  sur sdc1 ( c'est peut-être fait, il faudrait regarder le contenu des partitions).


AJOUT
Je te laisse regarder cette simulation pour un raid1 de taille 1 Go,   Donc cela va très vite


####   creation d'un RAID de test de type RAID1


sudo mdadm --create /dev/md0 --level=1  --raid-devices=3 /dev/sdc17 /dev/sdc18 /dev/sdc19 




mdadm: /dev/sdc17 appears to contain an ext2fs file system
       size=1048576K  mtime=Thu Jan  1 01:00:00 1970
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
mdadm: /dev/sdc18 appears to contain an ext2fs file system
       size=1048576K  mtime=Thu Jan  1 01:00:00 1970
mdadm: /dev/sdc19 appears to contain an ext2fs file system
       size=15589376K  mtime=Thu Jan  1 01:00:00 1970
mdadm: largest drive (/dev/sdc19) exceeds size (1046528K) by more than 1%
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.





sudo mdadm --detail /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Tue Nov 10 06:55:07 2020
        Raid Level : raid1
        Array Size : 1046528 (1022.00 MiB 1071.64 MB)
     Used Dev Size : 1046528 (1022.00 MiB 1071.64 MB)
      Raid Devices : 3
     Total Devices : 3
       Persistence : Superblock is persistent

       Update Time : Tue Nov 10 06:56:26 2020
             State : clean 
    Active Devices : 3
   Working Devices : 3
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

              Name : b:0  (local to host b)
              UUID : 331e0e1b:11067f6d:e9799556:57614582
            Events : 17

    Number   Major   Minor   RaidDevice State
       0     259        1        0      active sync   /dev/sdc17
       1     259        2        1      active sync   /dev/sdc18
       2     259        3        2      active sync   /dev/sdc19
       
       
       
lsblk -fe7 -o +size
.....                                                                         
├─sdc17 linux_raid_m b:0                     331e0e1b-1106-7f6d-e979-955657614582                                                 1G
│ └─md0                                                                                                                        1022M
├─sdc18 linux_raid_m b:0                     331e0e1b-1106-7f6d-e979-955657614582                                                 1G
│ └─md0                                                                                                                        1022M
└─sdc19 linux_raid_m b:0                     331e0e1b-1106-7f6d-e979-955657614582                                              14,9G
  └─md0                                                                                                                        
 
 
sudo mdadm --examine /dev/sdc17 /dev/sdc18 /dev/sdc19 |grep "Device Role"
   Device Role : Active device 0
   Device Role : Active device 1
   Device Role : Active device 2


sudo mdadm --detail /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Tue Nov 10 06:55:07 2020
        Raid Level : raid1
        Array Size : 1046528 (1022.00 MiB 1071.64 MB)
     Used Dev Size : 1046528 (1022.00 MiB 1071.64 MB)
      Raid Devices : 3
     Total Devices : 3
       Persistence : Superblock is persistent

       Update Time : Tue Nov 10 06:56:26 2020
             State : clean 
    Active Devices : 3
   Working Devices : 3
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

              Name : b:0  (local to host b)
              UUID : 331e0e1b:11067f6d:e9799556:57614582
            Events : 17

    Number   Major   Minor   RaidDevice State
       0     259        1        0      active sync   /dev/sdc17
       1     259        2        1      active sync   /dev/sdc18
       2     259        3        2      active sync   /dev/sdc19


sudo mkfs.ext4 /dev/md0
mke2fs 1.45.5 (07-Jan-2020)
En train de créer un système de fichiers avec 261632 4k blocs et 65408 i-noeuds.
UUID de système de fichiers=37395ead-f22b-4b28-b860-fbd739c60fef
Superblocs de secours stockés sur les blocs : 
	32768, 98304, 163840, 229376

Allocation des tables de groupe : complété                            
Écriture des tables d'i-noeuds : complété                            
Création du journal (4096 blocs) : complété
Écriture des superblocs et de l'information de comptabilité du système de
fichiers : complété


sudo mkdir /media/RAID1
sudo chmod 777 /media/RAID1
sudo mount -v /dev/md0 /media/RAID1


df -h
Sys. de fichiers Taille Utilisé Dispo Uti% Monté sur
...
/dev/md0           990M    2,6M  921M   1% /media/RAID1




sudo cp -Rv /var /media/RAID1

df -h
....
/dev/md0           990M    282M  641M  31% /media/RAID1



sudo mdadm --manage /dev/md0 --set-faulty /dev/sdc17
mdadm: set /dev/sdc17 faulty in /dev/md0

cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] 
md0 : active raid1 sdc19[2] sdc18[1]
      1046528 blocks super 1.2 [3/2] [_UU]
      
md2 : active raid5 sdc11[0] sdc14[3] sdc12[4] sdc13[2]
      3139584 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/4] [UUUU]
      
unused devices: <none>
a@b:~$ 



sudo mdadm --detail /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Tue Nov 10 06:55:07 2020
        Raid Level : raid1
        Array Size : 1046528 (1022.00 MiB 1071.64 MB)
     Used Dev Size : 1046528 (1022.00 MiB 1071.64 MB)
      Raid Devices : 3
     Total Devices : 3
       Persistence : Superblock is persistent

       Update Time : Tue Nov 10 07:20:50 2020
             State : clean, degraded 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 1
     Spare Devices : 0

Consistency Policy : resync

              Name : b:0  (local to host b)
              UUID : 331e0e1b:11067f6d:e9799556:57614582
            Events : 19

    Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       1     259        2        1      active sync   /dev/sdc18
       2     259        3        2      active sync   /dev/sdc19

       0     259        1        -      faulty   /dev/sdc17


sudo mdadm --manage /dev/md0 --remove /dev/sdc17
mdadm: hot removed /dev/sdc17 from /dev/md0
sudo mdadm --detail /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Tue Nov 10 06:55:07 2020
        Raid Level : raid1
        Array Size : 1046528 (1022.00 MiB 1071.64 MB)
     Used Dev Size : 1046528 (1022.00 MiB 1071.64 MB)
      Raid Devices : 3
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Tue Nov 10 07:26:17 2020
             State : clean, degraded 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

              Name : b:0  (local to host b)
              UUID : 331e0e1b:11067f6d:e9799556:57614582
            Events : 20

    Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       1     259        2        1      active sync   /dev/sdc18
       2     259        3        2      active sync   /dev/sdc19




mdadm --manage /dev/md0 --add /dev/sdc20  && cat /proc/mdstat

sudo mdadm --manage /dev/md0 --add /dev/sdc20  && cat /proc/mdstat
mdadm: added /dev/sdc20
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] 
md0 : active raid1 sdc20[3](S) sdc19[2] sdc18[1]
      1046528 blocks super 1.2 [3/2] [_UU]



Puis un peu plus tard

/proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] 
md0 : active raid1 sdc20[3] sdc19[2] sdc18[1]
      1046528 blocks super 1.2 [3/3] [UUU]
      
      
      
sudo mdadm --detail /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Tue Nov 10 06:55:07 2020
        Raid Level : raid1
        Array Size : 1046528 (1022.00 MiB 1071.64 MB)
     Used Dev Size : 1046528 (1022.00 MiB 1071.64 MB)
      Raid Devices : 3
     Total Devices : 3
       Persistence : Superblock is persistent

       Update Time : Tue Nov 10 07:43:00 2020
             State : clean 
    Active Devices : 3
   Working Devices : 3
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

              Name : b:0  (local to host b)
              UUID : 331e0e1b:11067f6d:e9799556:57614582
            Events : 39

    Number   Major   Minor   RaidDevice State
       3     259        4        0      active sync   /dev/sdc20
       1     259        2        1      active sync   /dev/sdc18
       2     259        3        2      active sync   /dev/sdc19

Dernière modification par geole (Le 10/11/2020, à 08:52)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne