Contenu | Rechercher | Menus

Annonce

Si vous avez des soucis pour rester connecté, déconnectez-vous puis reconnectez-vous depuis ce lien en cochant la case
Me connecter automatiquement lors de mes prochaines visites.

À propos de l'équipe du forum.

#51 Le 26/05/2023, à 08:50

geole

Re : reparer raid5 d'un synology via ubuntu.

Donne ce retour

ls -ls /dev/disk/by-id

et je récupère les identifiants des rapports smarctl

 sudo smartctl -s on -a /dev/sdb
=== START OF INFORMATION SECTION ===
Model Family:     Toshiba P300
Device Model:     TOSHIBA HDWD130
Serial Number:    80LX2WMAS

sudo smartctl -s on -a /dev/sdc
=== START OF INFORMATION SECTION ===
Model Family:     Toshiba P300
Device Model:     TOSHIBA HDWD130
Serial Number:    80LX2ZUAS


sudo smartctl -s on -a /dev/sdd
=== START OF INFORMATION SECTION ===
Model Family:     Toshiba P300
Device Model:     TOSHIBA HDWD130
Serial Number:    80LYLE5AS
Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       1       8       35        1      active sync   /dev/sdc3
       2       8       51        2      active sync   /dev/sdd3

A cet instant les deux bons disques seraient 80LYLE5AS et 80LX2ZUAS

Dernière modification par geole (Le 26/05/2023, à 09:09)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne

#52 Le 26/05/2023, à 08:56

jyde

Re : reparer raid5 d'un synology via ubuntu.

je viens de me rendre compte d'un souci, un de mes disque n’était pas alimenté correctement la prise d'alim était pas bien enfoncé i a du bougé, j'ai donc coupé et redémarré la machine.
cmd : sudo mdadm --detail /dev/md2

root@jeanyves-HP-Compaq-6005-Pro-MT-PC:~# sudo mdadm --detail /dev/md2
/dev/md2:
           Version : 1.2
     Creation Time : Wed Jan 13 19:19:26 2021
        Raid Level : raid5
        Array Size : 5850889088 (5.45 TiB 5.99 TB)
     Used Dev Size : 2925444544 (2.72 TiB 3.00 TB)
      Raid Devices : 3
     Total Devices : 3
       Persistence : Superblock is persistent

       Update Time : Tue May 23 15:12:37 2023
             State : clean 
    Active Devices : 3
   Working Devices : 3
    Failed Devices : 0
     Spare Devices : 0

            Layout : left-symmetric
        Chunk Size : 64K

Consistency Policy : resync

              Name : NAS920:2
              UUID : c07c1894:125dab1d:c463deee:00ddfe1b
            Events : 1271

    Number   Major   Minor   RaidDevice State
       3       8       19        0      active sync   /dev/sdb3
       1       8       35        1      active sync   /dev/sdc3
       2       8       51        2      active sync   /dev/sdd3
root@jeanyves-HP-Compaq-6005-Pro-MT-PC:~# 

je pense que cela va faire que depuis le début je suis à la ramasse.

root@jeanyves-HP-Compaq-6005-Pro-MT-PC:~# ls -ls /dev/disk/by-id
total 0
0 lrwxrwxrwx 1 root root  9 mai   26 09:46 ata-Hitachi_HDS721025CLA382_JPA370H9249WJL -> ../../sda
0 lrwxrwxrwx 1 root root 10 mai   26 09:46 ata-Hitachi_HDS721025CLA382_JPA370H9249WJL-part1 -> ../../sda1
0 lrwxrwxrwx 1 root root 10 mai   26 09:46 ata-Hitachi_HDS721025CLA382_JPA370H9249WJL-part2 -> ../../sda2
0 lrwxrwxrwx 1 root root 10 mai   26 09:46 ata-Hitachi_HDS721025CLA382_JPA370H9249WJL-part3 -> ../../sda3
0 lrwxrwxrwx 1 root root  9 mai   26 09:46 ata-TOSHIBA_HDWD130_80LX2WMAS -> ../../sdb
0 lrwxrwxrwx 1 root root 10 mai   26 09:46 ata-TOSHIBA_HDWD130_80LX2WMAS-part1 -> ../../sdb1
0 lrwxrwxrwx 1 root root 10 mai   26 09:46 ata-TOSHIBA_HDWD130_80LX2WMAS-part2 -> ../../sdb2
0 lrwxrwxrwx 1 root root 10 mai   26 09:46 ata-TOSHIBA_HDWD130_80LX2WMAS-part3 -> ../../sdb3
0 lrwxrwxrwx 1 root root  9 mai   26 09:46 ata-TOSHIBA_HDWD130_80LX2ZUAS -> ../../sdc
0 lrwxrwxrwx 1 root root 10 mai   26 09:46 ata-TOSHIBA_HDWD130_80LX2ZUAS-part1 -> ../../sdc1
0 lrwxrwxrwx 1 root root 10 mai   26 09:46 ata-TOSHIBA_HDWD130_80LX2ZUAS-part2 -> ../../sdc2
0 lrwxrwxrwx 1 root root 10 mai   26 09:46 ata-TOSHIBA_HDWD130_80LX2ZUAS-part3 -> ../../sdc3
0 lrwxrwxrwx 1 root root  9 mai   26 09:46 ata-TOSHIBA_HDWD130_80LYLE5AS -> ../../sdd
0 lrwxrwxrwx 1 root root 10 mai   26 09:46 ata-TOSHIBA_HDWD130_80LYLE5AS-part1 -> ../../sdd1
0 lrwxrwxrwx 1 root root 10 mai   26 09:46 ata-TOSHIBA_HDWD130_80LYLE5AS-part2 -> ../../sdd2
0 lrwxrwxrwx 1 root root 10 mai   26 09:46 ata-TOSHIBA_HDWD130_80LYLE5AS-part3 -> ../../sdd3
0 lrwxrwxrwx 1 root root  9 mai   26 09:46 md-name-NAS920:2 -> ../../md2
0 lrwxrwxrwx 1 root root  9 mai   26 09:46 md-uuid-c07c1894:125dab1d:c463deee:00ddfe1b -> ../../md2
0 lrwxrwxrwx 1 root root  9 mai   26 09:46 wwn-0x5000039fe6f70bc1 -> ../../sdb
0 lrwxrwxrwx 1 root root 10 mai   26 09:46 wwn-0x5000039fe6f70bc1-part1 -> ../../sdb1
0 lrwxrwxrwx 1 root root 10 mai   26 09:46 wwn-0x5000039fe6f70bc1-part2 -> ../../sdb2
0 lrwxrwxrwx 1 root root 10 mai   26 09:46 wwn-0x5000039fe6f70bc1-part3 -> ../../sdb3
0 lrwxrwxrwx 1 root root  9 mai   26 09:46 wwn-0x5000039fe6f70c24 -> ../../sdc
0 lrwxrwxrwx 1 root root 10 mai   26 09:46 wwn-0x5000039fe6f70c24-part1 -> ../../sdc1
0 lrwxrwxrwx 1 root root 10 mai   26 09:46 wwn-0x5000039fe6f70c24-part2 -> ../../sdc2
0 lrwxrwxrwx 1 root root 10 mai   26 09:46 wwn-0x5000039fe6f70c24-part3 -> ../../sdc3
0 lrwxrwxrwx 1 root root  9 mai   26 09:46 wwn-0x5000039fe6f7ba70 -> ../../sdd
0 lrwxrwxrwx 1 root root 10 mai   26 09:46 wwn-0x5000039fe6f7ba70-part1 -> ../../sdd1
0 lrwxrwxrwx 1 root root 10 mai   26 09:46 wwn-0x5000039fe6f7ba70-part2 -> ../../sdd2
0 lrwxrwxrwx 1 root root 10 mai   26 09:46 wwn-0x5000039fe6f7ba70-part3 -> ../../sdd3
0 lrwxrwxrwx 1 root root  9 mai   26 09:46 wwn-0x5000cca370de259c -> ../../sda
0 lrwxrwxrwx 1 root root 10 mai   26 09:46 wwn-0x5000cca370de259c-part1 -> ../../sda1
0 lrwxrwxrwx 1 root root 10 mai   26 09:46 wwn-0x5000cca370de259c-part2 -> ../../sda2
0 lrwxrwxrwx 1 root root 10 mai   26 09:46 wwn-0x5000cca370de259c-part3 -> ../../sda3
root@jeanyves-HP-Compaq-6005-Pro-MT-PC:~# 

Dernière modification par jyde (Le 26/05/2023, à 08:59)

Hors ligne

#53 Le 26/05/2023, à 09:01

geole

Re : reparer raid5 d'un synology via ubuntu.

Consistency Policy : resync
Il faut laisser la syncrhonisation se terminer....

watch -n 30 cat /proc/mdstat

Lorsque cela sera fini, tu regarderas si un accès  normal      au raid est possible

Dernière modification par geole (Le 26/05/2023, à 09:06)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne

#54 Le 26/05/2023, à 09:05

jyde

Re : reparer raid5 d'un synology via ubuntu.

SDB

=== START OF INFORMATION SECTION ===
Model Family:     Toshiba P300
Device Model:     TOSHIBA HDWD130
Serial Number:    80LX2WMAS
LU WWN Device Id: 5 000039 fe6f70bc1
Firmware Version: MX6OACF0

SDC

=== START OF INFORMATION SECTION ===
Model Family:     Toshiba P300
Device Model:     TOSHIBA HDWD130
Serial Number:    80LX2ZUAS
LU WWN Device Id: 5 000039 fe6f70c24
Firmware Version: MX6OACF0

SDD

=== START OF INFORMATION SECTION ===
Model Family:     Toshiba P300
Device Model:     TOSHIBA HDWD130
Serial Number:    80LYLE5AS
LU WWN Device Id: 5 000039 fe6f7ba70
Firmware Version: MX6OACF0

Hors ligne

#55 Le 26/05/2023, à 09:08

jyde

Re : reparer raid5 d'un synology via ubuntu.

geole a écrit :

Consistency Policy : resync
Il faut laisser la syncrhonisation se terminer....

watch -n 30 cat /proc/mdstat

Lorsque cela sera fini, tu regarderas si un acces  normal      au raide est possible

Ok c'est parti ça risque de prendre du temps.

Hors ligne

#56 Le 26/05/2023, à 09:12

geole

Re : reparer raid5 d'un synology via ubuntu.

Les noms des deux bons disques initiaux
ata-TOSHIBA_HDWD130_80LX2ZUAS -> ../../sdc
ata-TOSHIBA_HDWD130_80LYLE5AS -> ../../sdd

Suite des opérations
Si à la fin de la synchronisation,  le problème persiste la copie devient

sudo dd if=/dev/disk/by-id/ata-TOSHIBA_HDWD130_80LX2ZUAS  of=/dev/disk/by-id/xxxxxx-xxxxxxxx bs=4M conv=notrunc status=progress
sudo dd if=/dev/disk/by-id/ata-TOSHIBA_HDWD130_80LYLE5AS  of=/dev/disk/by-id/zzzzzzz-zzzzzz bs=4M conv=notrunc status=progress

Je te laisserais identifier les valeurs sorties qui ne doivent être l une de ces quatre là

0 lrwxrwxrwx 1 root root  9 mai   26 09:46 ata-Hitachi_HDS721025CLA382_JPA370H9249WJL -> ../../sda
0 lrwxrwxrwx 1 root root  9 mai   26 09:46 ata-TOSHIBA_HDWD130_80LX2WMAS -> ../../sdb
0 lrwxrwxrwx 1 root root  9 mai   26 09:46 ata-TOSHIBA_HDWD130_80LX2ZUAS -> ../../sdc
0 lrwxrwxrwx 1 root root  9 mai   26 09:46 ata-TOSHIBA_HDWD130_80LYLE5AS -> ../../sdd

Si à la fin de la synchronisation,  tu accèdes normalement à tes données
Il faut que tu sauvegardes logiquement des données  dans tes deux disques
dans ce cas, tu peux faire   une partition    sur chaque disque qui prend la totalité du disque.
   et dans le premier  disque, sauver  des répertoires    et les répertoires restants dans l autre disque.
car il me semble que tu ne peux pas brancher les deux disques en même temps  sauf à te priver de SDA et travailler en live-USB
En effet, il est probable que la réparation faite sur les disques avec ubuntu ne sera pas reconnue par le NAS et que tu devras y  recréer totalement ce raid et y réimporter les données.

Bon courage.

Dernière modification par geole (Le 26/05/2023, à 09:29)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne

#57 Le 26/05/2023, à 09:28

jyde

Re : reparer raid5 d'un synology via ubuntu.

j'ai un doute du coup sur le disque sdb.
est-il celui qui est inutile ou pas vu qu'il etait mal branché?

root@jeanyves-HP-Compaq-6005-Pro-MT-PC:~# sudo mdadm --detail /dev/md2
/dev/md2:
           Version : 1.2
     Creation Time : Wed Jan 13 19:19:26 2021
        Raid Level : raid5
        Array Size : 5850889088 (5.45 TiB 5.99 TB)
     Used Dev Size : 2925444544 (2.72 TiB 3.00 TB)
      Raid Devices : 3
     Total Devices : 3
       Persistence : Superblock is persistent

       Update Time : Tue May 23 15:12:37 2023
             State : clean 
    Active Devices : 3
   Working Devices : 3
    Failed Devices : 0
     Spare Devices : 0

            Layout : left-symmetric
        Chunk Size : 64K

Consistency Policy : resync

              Name : NAS920:2
              UUID : c07c1894:125dab1d:c463deee:00ddfe1b
            Events : 1271

    Number   Major   Minor   RaidDevice State
       3       8       19        0      active sync   /dev/sdb3
       1       8       35        1      active sync   /dev/sdc3
       2       8       51        2      active sync   /dev/sdd3
root@jeanyves-HP-Compaq-6005-Pro-MT-PC:~# 

Si j'arrive à recopier mes fichiers ce sera le graal, pour remettre en service le nas c'est pas le plus compliqué.

Dernière modification par jyde (Le 26/05/2023, à 09:33)

Hors ligne

#58 Le 26/05/2023, à 09:31

geole

Re : reparer raid5 d'un synology via ubuntu.

Redonne

sudo mdadm --examine /dev/sd[bcd]3

Mais je m absente  deux heures.


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne

#59 Le 26/05/2023, à 09:36

jyde

Re : reparer raid5 d'un synology via ubuntu.

root@jeanyves-HP-Compaq-6005-Pro-MT-PC:~# sudo mdadm --examine /dev/sd[bcd]3
/dev/sdb3:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : c07c1894:125dab1d:c463deee:00ddfe1b
           Name : NAS920:2
  Creation Time : Wed Jan 13 19:19:26 2021
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 5850889120 sectors (2.72 TiB 3.00 TB)
     Array Size : 5850889088 KiB (5.45 TiB 5.99 TB)
  Used Dev Size : 5850889088 sectors (2.72 TiB 3.00 TB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
   Unused Space : before=1768 sectors, after=32 sectors
          State : clean
    Device UUID : 516ce98a:3656f6ac:4abaa61b:d3ad123e

    Update Time : Tue May 23 15:12:37 2023
  Bad Block Log : 512 entries available at offset 264 sectors
       Checksum : e0e40166 - correct
         Events : 1271

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 0
   Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdc3:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : c07c1894:125dab1d:c463deee:00ddfe1b
           Name : NAS920:2
  Creation Time : Wed Jan 13 19:19:26 2021
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 5850889120 sectors (2.72 TiB 3.00 TB)
     Array Size : 5850889088 KiB (5.45 TiB 5.99 TB)
  Used Dev Size : 5850889088 sectors (2.72 TiB 3.00 TB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
   Unused Space : before=1968 sectors, after=32 sectors
          State : clean
    Device UUID : 99b5d7bf:5f63b8a0:4a9903b4:bac3ed0a

    Update Time : Tue May 23 15:12:37 2023
       Checksum : 6ec44bb5 - correct
         Events : 1271

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 1
   Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdd3:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : c07c1894:125dab1d:c463deee:00ddfe1b
           Name : NAS920:2
  Creation Time : Wed Jan 13 19:19:26 2021
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 5850889120 sectors (2.72 TiB 3.00 TB)
     Array Size : 5850889088 KiB (5.45 TiB 5.99 TB)
  Used Dev Size : 5850889088 sectors (2.72 TiB 3.00 TB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
   Unused Space : before=1968 sectors, after=32 sectors
          State : clean
    Device UUID : 4e6afb18:b447e85b:221bfee8:30ae5b48

    Update Time : Tue May 23 15:12:37 2023
       Checksum : f5805115 - correct
         Events : 1271

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 2
   Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)
root@jeanyves-HP-Compaq-6005-Pro-MT-PC:~# 

Hors ligne

#60 Le 26/05/2023, à 11:36

geole

Re : reparer raid5 d'un synology via ubuntu.

Au premier coup d'oeil, la structure  RAID vue par MDADM est impeccable.

sudo mdadm --examine /dev/sd[bcd]3
/dev/sdb3: Update Time : Tue May 23 15:12:37 Events : 1271 Device Role : Active device 0
/dev/sdc3: Update Time : Tue May 23 15:12:37 Events : 1271 Device Role : Active device 1
/dev/sdd3: Update Time : Tue May 23 15:12:37 Events : 1271 Device Role : Active device 2 

Cependant le système de fichiers qu'elle héberge peut être inconsistant.......

Ajout. Ma première participation sur un RAID au format BTRFS



Et je n'ai toujours pas compris si ce raids est au format EXT4    compatible MDADM  au format BRTFS de 2018  que je ne connais pas, mais  je ne peux pas trouver dans la documentation.
      La documentation actuelle  MDADM   dit qu'on peut   mettre du btrfs dans du mdadm et  la documentation  actuelle du BTRFS dit qu'on peut se passer de MDADM et si on se passe du mdadm; il n' y a pas de super blocs

 sudo btrfs filesystem show

Label: none  uuid: c2b6e6ec-10d6-4c48-a28a-0dfc6f62d728
    Total devices 6 FS bytes used 89.26GiB
    devid    1 size 10.01GiB used 10.00GiB path /dev/sda20
    devid    2 size 12.00GiB used 12.00GiB path /dev/sda23
    devid    3 size 16.00GiB used 16.00GiB path /dev/sda25
    devid    4 size 23.00GiB used 23.00GiB path /dev/sda26
    devid    5 size 29.00GiB used 29.00GiB path /dev/sda27
    devid    6 size 35.00GiB used 29.00GiB path /dev/sda28
sudo mdadm --examine /dev/sda20 /dev/sda23 /dev/sda2[5-8]
mdadm: No md superblock detected on /dev/sda20.
mdadm: No md superblock detected on /dev/sda23.
mdadm: No md superblock detected on /dev/sda25.
mdadm: No md superblock detected on /dev/sda26.
mdadm: No md superblock detected on /dev/sda27.
mdadm: No md superblock detected on /dev/sda28.

et ce raid BTRFS natif, n est pas connu de mdadm

a@p:~$ cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md0 : active raid1 sdd2[3] sdc16[2]
      31439872 blocks super 1.2 [2/2] [UU]
      
md3 : inactive sdc15[1](S)
      10476544 blocks super 1.2
       
md126 : active raid5 sdc13[4] sdc14[3] sdc12[2]
      20970496 blocks super 1.0 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
      
md127 : active (auto-read-only) raid1 sda24[1] sda18[0]
      1046528 blocks super 1.2 [2/2] [UU]
      
unused devices: <none>
a@p:~$ 

Dernière modification par geole (Le 26/05/2023, à 16:15)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne

#61 Le 26/05/2023, à 12:59

jyde

Re : reparer raid5 d'un synology via ubuntu.

Par contre pour le moment la synchro n'est pas terminé donc je vais patienter et croisé les doigts

Hors ligne

#62 Le 26/05/2023, à 13:20

jyde

Re : reparer raid5 d'un synology via ubuntu.

les infos que tu me donnes sont la reproduction que tu as fait chez toi.
chez moi

root@jeanyves-HP-Compaq-6005-Pro-MT-PC:~# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] 
md2 : active raid5 sdc3[1] sdd3[2] sdb3[3]
      5850889088 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/3] [UUU]
      
unused devices: <none>
root@jeanyves-HP-Compaq-6005-Pro-MT-PC:~# 

Dernière modification par jyde (Le 26/05/2023, à 13:23)

Hors ligne

#63 Le 26/05/2023, à 16:13

geole

Re : reparer raid5 d'un synology via ubuntu.

Il me semble que le raid est maintenant disponible pour le montage
On va faire comme si tout était bon

sudo mount -v /dev/md2  /mnt

Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne

#64 Le 26/05/2023, à 17:21

jyde

Re : reparer raid5 d'un synology via ubuntu.

en fait non il n'est toujours pas synchronisé j'ai ouvert une 2ème fenêtre terminal et  retapé la cmd.
Pour le moment j'ai toujours le curseur clignotant en bas de fenêtre et les disques tournent. Apres travail-t'ils ?????

Dernière modification par jyde (Le 26/05/2023, à 17:31)

Hors ligne

#65 Le 26/05/2023, à 17:56

jyde

Re : reparer raid5 d'un synology via ubuntu.

Alors je regarde un peu partout sur le net et lorsque la cmd : cat /proc/mdstat est lancé je devrait voir une flèche (=====>)avec au bout le %tage de progression de la synchro.
ce n'est pas le cas. donc la cmd ne doit pas fonctionner.

Dans les appli d'Ubuntu je vais sur disque et je viens de regarder les données de chacun d'entre eux le SDB et C sont sain le SDD j'ai rien, il me semble que c'est lui qui doit mettre la zizanie. si c'est ça je vais procéder a la recopie.

Dernière modification par jyde (Le 26/05/2023, à 18:18)

Hors ligne

#66 Le 26/05/2023, à 18:50

geole

Re : reparer raid5 d'un synology via ubuntu.

Oui Mais
Comme, il me semble qu'ils sont synchronisés puisque tous les trois sont déclarés actifs, lorsque   tu frappes la commande,   elle ne montre pas que le logiciel est en train de synchroniser.


Regarder l'état des disques avec  l'application disques est risqué comme interprétation. Au besoin, refais un rapport smartctl de SDD. Lui  n'interprète pas et donne des chiffres.

Dernière modification par geole (Le 26/05/2023, à 18:52)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne

#67 Le 26/05/2023, à 19:06

jyde

Re : reparer raid5 d'un synology via ubuntu.

oui en effet, mais comme cela me parait bizarre d'avoir 1 disque monté (sdd) sans acces et les 2 autres non.
Je me poses des questions.
la cmd smatctl me dit des choses et plus ou moins les même pour les 3.
donc oui j'ai beaucoup d'interrogation. Et fini par ne plus rien comprendre du tout au final.

j'ai toujours

oot@jeanyves-HP-Compaq-6005-Pro-MT-PC:~# sudo mount -v /dev/md2  /mnt
mount: /mnt: wrong fs type, bad option, bad superblock on /dev/md2, missing codepage or helper program, or other error.
root@jeanyves-HP-Compaq-6005-Pro-MT-PC:~#

je relance une synchro mais si c'est aussi long que sur le nas il y en a pour plusieurs heures.
je te souhaite une bonne soirée et te tiens au courant demain si la synchro est passé.

Dernière modification par jyde (Le 26/05/2023, à 19:28)

Hors ligne

#68 Le 26/05/2023, à 20:59

geole

Re : reparer raid5 d'un synology via ubuntu.

Comme je te l'ai dit, je ne pratique pas le raids btrfs dans un nas.
Je pense que peu d'intervenants vont se manifester.

Je n'ai pas encore compris s'il faut , dans la réparation, privilégier  la technique  proposée par ton fournisseur NAS ou ce qui devrait normalement se faire en BTRFS si c'est vraiment du BTRFS. C'est pour cela que je t'ai proposé de sauver le contenu de deux partitions avant de tenter des commandes de réparation.
Si les commandes de réparation se passent ( très) mal, on pourrait revenir facilement à la situation antérieure alors qu'autrement il faut asumer le risque de tout perdre.
Mais puisque tu as acheté deux disques, autant  dupliquer deux partitions avant de faire des commandes qui feraient n'importe quoi.

J'ai noté
mount: /mnt: wrong fs type, bad option, bad superblock on /dev/md2, missing codepage or helper program, or other error.
Dans un tel contexte  l'action normale, me semble-t-il est

sudo fsck  /dev/md2

Des questions seront posées. Suivant les réponses que tu donnes, cela peut bien se passer  ou pas.
Même si tu me demandes mon avis, je peux me tromper et provoquer une catastrophe.
Mais il y aurait une autre action en demandant à  BTRFS de traiter le problème. Mais je n'ai aucune idée de ce qu'il fera car je viens de découvrir.

sudo   btrfs-check --repair --progress --super 1  

ou

sudo   btrfs-check --repair --progress --super 2 

Dans les deux contextes, Si tu dupliques avant de réparer, on a la possibilité de tenter autre chose. Sinon, il faut assumer mais on risque s'enfoncer au lieu de reprendre pied.

Dernière modification par geole (Le 26/05/2023, à 21:41)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne

#69 Le 27/05/2023, à 07:06

geole

Re : reparer raid5 d'un synology via ubuntu.

Bonjour
Voici ma nouvelle proposition:    Etre en conformité avec la documentation synergy

A) Installer la version 18.04
1) Booter avec le support d'installation.
2) Lancer GPARTED
3) Si pas d'espace libre  de 50 Go, se positionner sur la grosse partition contenant certainement ubuntu 22.04 et la rétrécir de 50 Go.
4) Quitter gparted
5) Lancer l'installation de la version 18.04 à coté de ubuntu 22.04
6) Lorsque c'est fini  d'installer, arrêter l'ordinateur.

B) Booter en version 18.04
1) Installer uniquement l'application MDADM

   sudo apt install mdadm

2) Lancer uniquement la mise à jour.

sudo apt update
sudo apt upgrade

La mise à niveau vers la version 20.04 (22.04)  sera certainement proposée, il faut la refuser même définitivement  si c'est proposé.
3) Rebooter
4) Donner ces retours

cat /proc/mdstat
lsblk -fe7

Cela permettra de voir comment les raids sont vus.  Je pense que cela sera toujours md2  mais pourquoi pas md125
5)Monter le raid et donner les erreurs.

 sudo mount -v /mdNNN  /mnt
journalctl --no-pager -n 100

A mon avis, cela se passera mal comme avant malgré le fait que les trois disques soient présents dans le raids.
C) Sauver  deux disques du raid avant de réparer.
    Voir la procédure donnée. Je reste sur l'idée des deux disques identifiés précédemment
D) Tenter les réparations.

sudo fsck  /dev/mdNNNN

Transmettre les erreurs. Si toujours   pas de super blocs, comme on a sauvé, on va insister avec des commandes plus agressives dédiées au système de fichier EXT4

sudo e2fsck -b nnnnn -yfv /dev/mdNNN

en remplaçant    nnnnnnn par les numéros de la liste en les faisant tous les uns à la suite des autres jusqu'à ce que l'un fonctionne.
Voici le début de la liste
        32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968,  102400000
Si aucun ne fonctionne, je pense que ce n'est pas la peine de faire la totalité de la liste.
Si tu penses le contraire, on peut l'obtenir en simulant un reformatage  Si la simulation rate, on a sauvé....

sudo mkfs.ext4 -n /dev/mdNNN

E) Si rien ne fonctionne, on tente  comme si c'était du btrfs, en installant enfin le paquet de la version 18.04
A ne pas faire si le raid a été identifié comme étant en EXT4 par la commande "lsblk -fe7".

sudo apt install btrfs-progs

Jeudi prochain, il sera trop tard le faire.
je ne connais pas du tout ce paquet en version 18.04 et tout ne fonctionne pas très bien en version 22.04.
J'ai vu cette commande. Je ne sais pas si elle existe en version 18.04.

sudo btrfs check --repair --progress /dev/sdd3
sudo   btrfs-check --repair --progress --super 1  /dev/sdd3
sudo   btrfs-check --repair --progress --super 2  /dev/sdd3

Exemple de retour en 22.04 sur raid qui fonctionne bien

enabling repair mode
WARNING:

	Do not use --repair unless you are advised to do so by a developer
	or an experienced user, and then only after having accepted that no
	fsck can successfully repair all types of filesystem corruption. Eg.
	some software or hardware bugs can fatally damage a volume.
	The operation will start in 10 seconds.
	Use Ctrl-C to stop it.
10 9 8 7 6 5 4 3 2 1
Starting repair.
Opening filesystem to check...
Checking filesystem on /dev/sda20
UUID: c2b6e6ec-10d6-4c48-a28a-0dfc6f62d728
[1/7] checking root items                      (0:00:00 elapsed, 9857 items checked)
Fixed 0 roots.
No device size related problem found           (0:00:11 elapsed, 7260 items checked)
[2/7] checking extents                         (0:00:11 elapsed, 7260 items checked)
[3/7] checking free space tree                 (0:00:00 elapsed, 34 items checked)
[4/7] checking fs roots                        (0:00:00 elapsed, 22 items checked)
[5/7] checking csums (without verifying data)  (0:00:00 elapsed, 9794 items checked)
[6/7] checking root refs                       (0:00:00 elapsed, 3 items checked)
[7/7] checking quota groups skipped (not enabled on this FS)
found 95837798400 bytes used, no error found
total csum bytes: 93475584
total tree bytes: 118800384
total fs tree bytes: 376832
total extent tree bytes: 753664
btree space waste bytes: 23156128
file data blocks allocated: 95718998016
 referenced 95718998016

Voici la totalité des options de cette commande en 2204

 sudo btrfs check 
btrfs check: exactly 1 argument expected, 0 given
usage: btrfs check [options] <device>

    Check structural integrity of a filesystem (unmounted).

    Check structural integrity of an unmounted filesystem. Verify internal
    trees' consistency and item connectivity. In the repair mode try to
    fix the problems found. 
    WARNING: the repair mode is considered dangerous and should not be used
             without prior analysis of problems found on the filesystem.
    Options:
      starting point selection:
           -s|--super <superblock>     use this superblock copy
           -b|--backup                 use the first valid backup root copy
           -r|--tree-root <bytenr>     use the given bytenr for the tree root
           --chunk-root <bytenr>       use the given bytenr for the chunk tree root
      operation modes:
           --readonly                  run in read-only mode (default)
           --repair                    try to repair the filesystem
           --force                     skip mount checks, repair is not possible
           --mode <MODE>               allows choice of memory/IO trade-offs
                                       where MODE is one of:
                                       original - read inodes and extents to memory (requires
                                                  more memory, does less IO)
                                       lowmem   - try to use less memory but read blocks again
                                                  when needed (experimental)
      repair options:
           --init-csum-tree            create a new CRC tree
           --init-extent-tree          create a new extent tree
           --clear-space-cache v1|v2   clear space cache for v1 or v2
           --clear-ino-cache           clear ino cache leftover items
      check and reporting options:
           --check-data-csum           verify checksums of data blocks
           -Q|--qgroup-report          print a report on qgroup consistency
           -E|--subvol-extents <subvolid>
                                       print subvolume extents and sharing state
           -p|--progress               indicate progress

Bonne matinée.


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne

#70 Le 27/05/2023, à 11:22

jyde

Re : reparer raid5 d'un synology via ubuntu.

bonjour Geole,
Merci pour tes recherches.
Alors petit souci ma partition SDA3 est verrouillé. Donc je ne peux pas la redimensionner.
Même en lançant en mode root.
il faut que je redémarre sur ma clé utilisé en live puis repartitionner ensuite installer Ubuntu 18.
Sinon toujours rien de synchronisé depuis hier soir.

Dernière modification par jyde (Le 27/05/2023, à 11:30)

Hors ligne

#71 Le 27/05/2023, à 11:30

geole

Re : reparer raid5 d'un synology via ubuntu.

Il faut faire tout cela avec le support d installation.
en te positionnant sur SDA3, il y a un menu dans gparted qui permet de démonter les partitions qui ont un "cadenas"


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne

#72 Le 27/05/2023, à 13:31

jyde

Re : reparer raid5 d'un synology via ubuntu.

Oui c'est ce que j'ai fait, c'est en cours je te ferai les retours.

Sinon pendant que ça s'installe.
Je voulais te dire que si toutefois je n'arrive pas à récupérer les données malgrés tous les conseils que tu me donnes.
Et bien ce n'est pas grave on aura essayer. comme je dis : celui qui ne fait rien, ne risques pas de faire des conneries.
je tente toujours de dépanner ou faire quelque chose quand c'est possible des fois ça marche des fois non, mais j'ai toujours la fierté d'avoir tenté quelque soit le résultat.

Dernière modification par jyde (Le 27/05/2023, à 13:59)

Hors ligne

#73 Le 27/05/2023, à 16:30

geole

Re : reparer raid5 d'un synology via ubuntu.

C'est malheureusement un risque. car, comme il n'y avait pas de disques défectueux, il n'y aurait pas du y avoir d'arrêt.
Il y aurait pu y avoir une panne électrique  avec en supplément un onduleur H.S.
Mais au redémarrage,   la réparation  des systèmes de fichiers EXT4 est automatique.
De plus, je ne te l'ai pas dit, mais la réponse de la commandes FSCK n'est pas celle habituelle   qui aurait être  ("dit de mémoire" )   premier superbloc non reconnu, utiliser les super blocs de secours 16384, 32768 mais cela a pu changer en version 22.04   pour "mal" rectifier l'erreur disant  que 16384 est un super  bloc de secours alors que ce n'est pas vrai. Ils auraient décidé de ne rien dire.

Je ne connais pas du tout l'application NAS que tu utilises,    Elle pourrait nous dire ce qui s'est passé le 30 mai lorsque SDB3 a été éjecté.    Ou ce qui vient de se passer au dernier plantage. Cela serait une aide.
Alors pourquoi  pas une grosse mise à jour de logiciel entraînant un énorme bug. Ou pire, un  intrus venu crypter tes données pour te faire cracher des bitcoins.

Pour le moment, on n'a pas encore fait de réparation. Mais comme tu vas sauver deux disques,  on pourra faire plusieurs tentatives.  Au besoin demander l'aide d'experts en récupération de données pour connaître la cause afin d'éviter de reproduire cette erreur....

Dernière modification par geole (Le 27/05/2023, à 16:33)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne

#74 Le 27/05/2023, à 17:02

jyde

Re : reparer raid5 d'un synology via ubuntu.

oui je comprends pas comment cela a pu arriver.
mais en tout cas lorsque je m'en suis rendu compte c'est en utilisant une aplli sur une VM qui fonctionnait pas, je me suis connecter a la page web et la nada. j'avais accès au réseau, les cartes ont répondu au ping mais rien d'autre.
voila la première partie avant la recopie.

root@jeanyves:~# cat /proc/mdstat

Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] 
md2 : active raid5 sdb3[3] sdc3[1] sdd3[2]
      5850889088 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/3] [UUU]
      
unused devices: <none>
root@jeanyves:~# lsblk -fe7
NAME FSTYPE LABEL                UUID                                 MOUNTPOINT
sda                                                                   
├─sda1
│                                                                     
├─sda2
│    vfat                        7F28-5610                            
├─sda3
│    ext4                        2eaec2b8-3252-4bfb-b91e-eedf914aff0d 
└─sda4
     ext4                        0ed63c0a-97ba-4425-a39f-7b20f3b777db /
sdb                                                                   
├─sdb1
│    linux_                      504d56ad-434d-b658-05d9-49f7b0bbaec7 
├─sdb2
│    linux_                      fdda107e-f2f3-f16f-05d9-49f7b0bbaec7 
└─sdb3
     linux_ NAS920:2             c07c1894-125d-ab1d-c463-deee00ddfe1b 
  └─md2
     btrfs  2021.01.13-18:19:28 v25426
                                 ff6851ee-a74e-4839-a08b-31bf0c91f44f 
sdc                                                                   
├─sdc1
│    linux_                      504d56ad-434d-b658-05d9-49f7b0bbaec7 
├─sdc2
│    linux_                      fdda107e-f2f3-f16f-05d9-49f7b0bbaec7 
└─sdc3
     linux_ NAS920:2             c07c1894-125d-ab1d-c463-deee00ddfe1b 
  └─md2
     btrfs  2021.01.13-18:19:28 v25426
                                 ff6851ee-a74e-4839-a08b-31bf0c91f44f 
sdd                                                                   
├─sdd1
│    linux_                      504d56ad-434d-b658-05d9-49f7b0bbaec7 
├─sdd2
│    linux_                      fdda107e-f2f3-f16f-05d9-49f7b0bbaec7 
└─sdd3
     linux_ NAS920:2             c07c1894-125d-ab1d-c463-deee00ddfe1b 
  └─md2
     btrfs  2021.01.13-18:19:28 v25426
                                 ff6851ee-a74e-4839-a08b-31bf0c91f44f 


root@jeanyves:~#  sudo mount -v /dev/md2  /mnt

mount: /mnt : wrong fs type, bad option, bad superblock on /dev/md2, missing codepage or helper program, or other error.

root@jeanyves:~# journalctl --no-pager -n 100

-- Logs begin at Sat 2023-05-27 14:36:46 CEST, end at Sat 2023-05-27 17:49:48 CEST. --
mai 27 15:36:53 jeanyves rtkit-daemon[1218]: Supervising 4 threads of 2 processes of 1 users.
mai 27 15:36:53 jeanyves rtkit-daemon[1218]: Supervising 4 threads of 2 processes of 1 users.
mai 27 15:36:53 jeanyves rtkit-daemon[1218]: Supervising 4 threads of 2 processes of 1 users.
mai 27 15:36:53 jeanyves rtkit-daemon[1218]: Supervising 4 threads of 2 processes of 1 users.
mai 27 15:36:53 jeanyves rtkit-daemon[1218]: Supervising 4 threads of 2 processes of 1 users.
mai 27 15:36:53 jeanyves rtkit-daemon[1218]: Supervising 4 threads of 2 processes of 1 users.
mai 27 15:37:09 jeanyves systemd[1]: Starting Stop ureadahead data collection...
mai 27 15:37:09 jeanyves systemd[1]: Started Stop ureadahead data collection.
mai 27 15:37:27 jeanyves gnome-software[1977]: plugin appstream took 3,1 seconds to do setup
mai 27 15:37:27 jeanyves gnome-software[1977]: enabled plugins: packagekit-refine-repos, packagekit-url-to-app, os-release, ubuntuone, packagekit-refresh, packagekit-local, shell-extensions, packagekit-upgrade, packagekit-offline, systemd-updates, desktop-categories, packagekit, packagekit-proxy, fwupd, appstream, packagekit-refine, hardcoded-featured, hardcoded-popular, desktop-menu-path, hardcoded-blacklist, generic-updates, rewrite-resource, odrs, steam, modalias, packagekit-history, snap, provenance, icons, provenance-license, key-colors, key-colors-metadata
mai 27 15:37:27 jeanyves gnome-software[1977]: disabled plugins: dpkg, dummy, repos, epiphany
mai 27 15:37:27 jeanyves dbus-daemon[647]: [system] Activating via systemd: service name='org.freedesktop.fwupd' unit='fwupd.service' requested by ':1.82' (uid=1000 pid=1977 comm="/usr/bin/gnome-software --gapplication-service " label="unconfined")
mai 27 15:37:27 jeanyves systemd[1]: Starting Firmware update daemon...
mai 27 15:37:28 jeanyves PackageKit[1379]: get-updates transaction /15_baeebebd from uid 1000 finished with success after 1262ms
mai 27 15:37:30 jeanyves gnome-software[1977]: shell-extensions did not set error for gs_plugin_refresh
mai 27 15:37:30 jeanyves dbus-daemon[647]: [system] Successfully activated service 'org.freedesktop.fwupd'
mai 27 15:37:30 jeanyves systemd[1]: Started Firmware update daemon.
mai 27 15:37:30 jeanyves gnome-software[1977]: Only 0 apps for recent list, hiding
mai 27 15:37:30 jeanyves gnome-shell[1165]: [AppIndicatorSupport-DEBUG] Registering StatusNotifierItem :1.72/org/ayatana/NotificationItem/software_update_available
mai 27 15:37:31 jeanyves gnome-shell[1165]: [AppIndicatorSupport-DEBUG] Registering StatusNotifierItem :1.72/org/ayatana/NotificationItem/livepatch
mai 27 15:37:32 jeanyves PackageKit[1379]: resolve transaction /16_ececaeab from uid 1000 finished with success after 971ms
mai 27 15:37:48 jeanyves PackageKit[1379]: search-file transaction /17_cccaceba from uid 1000 finished with success after 15798ms
mai 27 15:37:49 jeanyves PackageKit[1379]: search-file transaction /18_edbccecb from uid 1000 finished with success after 803ms
mai 27 15:37:50 jeanyves PackageKit[1379]: search-file transaction /19_dbbeccac from uid 1000 finished with success after 810ms
mai 27 15:37:50 jeanyves PackageKit[1379]: search-file transaction /20_adccdcea from uid 1000 finished with success after 800ms
mai 27 15:37:51 jeanyves PackageKit[1379]: search-file transaction /21_aadbbcad from uid 1000 finished with success after 809ms
mai 27 15:37:52 jeanyves PackageKit[1379]: search-file transaction /22_eebaaada from uid 1000 finished with success after 808ms
mai 27 15:37:53 jeanyves PackageKit[1379]: get-details transaction /23_ddaeadda from uid 1000 finished with success after 1130ms
mai 27 15:41:07 jeanyves dbus-daemon[647]: [system] Activating via systemd: service name='org.freedesktop.timedate1' unit='dbus-org.freedesktop.timedate1.service' requested by ':1.24' (uid=0 pid=821 comm="/usr/lib/snapd/snapd " label="unconfined")
mai 27 15:41:07 jeanyves dbus-daemon[647]: [system] Successfully activated service 'org.freedesktop.timedate1'
mai 27 15:41:07 jeanyves systemd[1]: Starting Time & Date Service...
mai 27 15:41:07 jeanyves systemd[1]: Started Time & Date Service.
mai 27 15:50:51 jeanyves systemd[1]: Starting Ubuntu Advantage Timer for running repeated jobs...
mai 27 15:50:51 jeanyves systemd[1]: Starting Cleanup of Temporary Directories...
mai 27 15:50:51 jeanyves systemd[1]: Started Cleanup of Temporary Directories.
mai 27 15:50:52 jeanyves systemd[1]: Started Ubuntu Advantage Timer for running repeated jobs.
mai 27 16:04:51 jeanyves systemd[1]: Started Run anacron jobs.
mai 27 16:04:51 jeanyves anacron[2113]: Anacron 2.3 started on 2023-05-27
mai 27 16:04:51 jeanyves anacron[2113]: Normal exit (0 jobs run)
mai 27 16:06:43 jeanyves avahi-daemon[813]: Withdrawing address record for 2a01:e0a:bcd:9890:87db:838e:725f:6270 on enp63s0.
mai 27 16:06:43 jeanyves avahi-daemon[813]: Registering new address record for 2a01:e0a:bcd:9890:87db:838e:725f:6270 on enp63s0.*.
mai 27 16:06:43 jeanyves avahi-daemon[813]: Registering new address record for fe80::a498:6c7b:b114:eec0 on enp63s0.*.
mai 27 16:07:04 jeanyves avahi-daemon[813]: Withdrawing address record for 2a01:e0a:bcd:9890:3c89:5d41:62ec:4191 on enp63s0.
mai 27 16:07:04 jeanyves avahi-daemon[813]: Withdrawing address record for fe80::a498:6c7b:b114:eec0 on enp63s0.
mai 27 16:07:04 jeanyves avahi-daemon[813]: Registering new address record for 2a01:e0a:bcd:9890:3c89:5d41:62ec:4191 on enp63s0.*.
mai 27 16:07:04 jeanyves NetworkManager[800]: <info>  [1685196424.3478] policy: set 'free' (enp63s0) as default for IPv6 routing and DNS
mai 27 16:17:01 jeanyves CRON[2150]: pam_unix(cron:session): session opened for user root by (uid=0)
mai 27 16:17:01 jeanyves CRON[2151]: (root) CMD (   cd / && run-parts --report /etc/cron.hourly)
mai 27 16:17:01 jeanyves CRON[2150]: pam_unix(cron:session): session closed for user root
mai 27 17:01:51 jeanyves systemd[1]: Started Run anacron jobs.
mai 27 17:01:51 jeanyves anacron[2207]: Anacron 2.3 started on 2023-05-27
mai 27 17:01:51 jeanyves anacron[2207]: Normal exit (0 jobs run)
mai 27 17:17:01 jeanyves CRON[2238]: pam_unix(cron:session): session opened for user root by (uid=0)
mai 27 17:17:01 jeanyves CRON[2239]: (root) CMD (   cd / && run-parts --report /etc/cron.hourly)
mai 27 17:17:01 jeanyves CRON[2238]: pam_unix(cron:session): session closed for user root
mai 27 17:46:13 jeanyves dbus-daemon[1023]: [session uid=1000 pid=1023] Activating via systemd: service name='org.gnome.Terminal' unit='gnome-terminal-server.service' requested by ':1.76' (uid=1000 pid=2297 comm="/usr/bin/gnome-terminal.real " label="unconfined")
mai 27 17:46:13 jeanyves systemd[969]: Starting GNOME Terminal Server...
mai 27 17:46:13 jeanyves dbus-daemon[1023]: [session uid=1000 pid=1023] Successfully activated service 'org.gnome.Terminal'
mai 27 17:46:13 jeanyves systemd[969]: Started GNOME Terminal Server.
mai 27 17:46:26 jeanyves sudo[2320]: jean-yves : TTY=pts/0 ; PWD=/home/jean-yves ; USER=root ; COMMAND=/bin/bash
mai 27 17:46:26 jeanyves sudo[2320]: pam_unix(sudo:session): session opened for user root by (uid=0)
mai 27 17:47:31 jeanyves sudo[2342]:     root : TTY=pts/0 ; PWD=/root ; USER=root ; COMMAND=/bin/mount -v /mdNNN /mnt
mai 27 17:47:31 jeanyves sudo[2342]: pam_unix(sudo:session): session opened for user root by (uid=0)
mai 27 17:47:31 jeanyves sudo[2342]: pam_unix(sudo:session): session closed for user root
mai 27 17:47:57 jeanyves sudo[2344]:     root : TTY=pts/0 ; PWD=/root ; USER=root ; COMMAND=/bin/mount -v /md2 /mnt
mai 27 17:47:57 jeanyves sudo[2344]: pam_unix(sudo:session): session opened for user root by (uid=0)
mai 27 17:47:57 jeanyves sudo[2344]: pam_unix(sudo:session): session closed for user root
mai 27 17:48:24 jeanyves dbus-daemon[647]: [system] Activating service name='com.ubuntu.USBCreator' requested by ':1.89' (uid=1000 pid=2361 comm="/usr/bin/python3 /usr/bin/usb-creator-gtk " label="unconfined") (using servicehelper)
mai 27 17:48:24 jeanyves dbus-daemon[647]: [system] Successfully activated service 'com.ubuntu.USBCreator'
mai 27 17:48:32 jeanyves dbus-daemon[647]: [system] Activating via systemd: service name='org.freedesktop.hostname1' unit='dbus-org.freedesktop.hostname1.service' requested by ':1.90' (uid=1000 pid=2361 comm="/usr/bin/python3 /usr/bin/usb-creator-gtk " label="unconfined")
mai 27 17:48:32 jeanyves systemd[1]: Starting Hostname Service...
mai 27 17:48:32 jeanyves dbus-daemon[647]: [system] Successfully activated service 'org.freedesktop.hostname1'
mai 27 17:48:32 jeanyves systemd[1]: Started Hostname Service.
mai 27 17:48:33 jeanyves gvfsd[1201]: mkdir failed on directory /var/cache/samba: Permission non accordée
mai 27 17:48:34 jeanyves gvfsd[1201]: mkdir failed on directory /var/cache/samba: Permission non accordée
mai 27 17:48:35 jeanyves gvfsd[1201]: mkdir failed on directory /var/cache/samba: Permission non accordée
mai 27 17:48:36 jeanyves gvfsd[1201]: mkdir failed on directory /var/cache/samba: Permission non accordée
mai 27 17:48:36 jeanyves gvfsd[1201]: mkdir failed on directory /var/cache/samba: Permission non accordée
mai 27 17:48:37 jeanyves gvfsd[1201]: mkdir failed on directory /var/cache/samba: Permission non accordée
mai 27 17:48:38 jeanyves gvfsd[1201]: mkdir failed on directory /var/cache/samba: Permission non accordée
mai 27 17:48:38 jeanyves kernel: BTRFS info (device md2): flagging fs with big metadata feature
mai 27 17:48:38 jeanyves kernel: BTRFS info (device md2): using free space tree
mai 27 17:48:38 jeanyves kernel: BTRFS info (device md2): has skinny extents
mai 27 17:48:38 jeanyves kernel: BTRFS critical (device md2): corrupt leaf: root=1 block=77758464 slot=0, invalid root flags, have 0x400000000 expect mask 0x1000000000001
mai 27 17:48:38 jeanyves kernel: BTRFS error (device md2): block=77758464 read time tree block corruption detected
mai 27 17:48:39 jeanyves kernel: BTRFS critical (device md2): corrupt leaf: root=1 block=77758464 slot=0, invalid root flags, have 0x400000000 expect mask 0x1000000000001
mai 27 17:48:39 jeanyves kernel: BTRFS error (device md2): block=77758464 read time tree block corruption detected
mai 27 17:48:39 jeanyves kernel: BTRFS error (device md2): open_ctree failed
mai 27 17:49:48 jeanyves sudo[2436]:     root : TTY=pts/0 ; PWD=/root ; USER=root ; COMMAND=/bin/mount -v /dev/md2 /mnt
mai 27 17:49:48 jeanyves sudo[2436]: pam_unix(sudo:session): session opened for user root by (uid=0)
mai 27 17:49:48 jeanyves kernel: BTRFS: device label 2021.01.13-18:19:28 v25426 devid 1 transid 2952071 /dev/md2
mai 27 17:49:48 jeanyves kernel: BTRFS info (device md2): flagging fs with big metadata feature
mai 27 17:49:48 jeanyves kernel: BTRFS info (device md2): using free space tree
mai 27 17:49:48 jeanyves kernel: BTRFS info (device md2): has skinny extents
mai 27 17:49:48 jeanyves kernel: BTRFS critical (device md2): corrupt leaf: root=1 block=77758464 slot=0, invalid root flags, have 0x400000000 expect mask 0x1000000000001
mai 27 17:49:48 jeanyves kernel: BTRFS error (device md2): block=77758464 read time tree block corruption detected
mai 27 17:49:48 jeanyves kernel: BTRFS critical (device md2): corrupt leaf: root=1 block=77758464 slot=0, invalid root flags, have 0x400000000 expect mask 0x1000000000001
mai 27 17:49:48 jeanyves kernel: BTRFS error (device md2): block=77758464 read time tree block corruption detected
mai 27 17:49:48 jeanyves kernel: BTRFS error (device md2): open_ctree failed
mai 27 17:49:48 jeanyves sudo[2436]: pam_unix(sudo:session): session closed for user root
root@jeanyves:~#

Par contre il faut identifier les disques à recopier.

sinon
j'ai toujours les même msg

root@jeanyves:~# sudo mdadm --assemble /dev/md2  --run /dev/sdb3  /dev/sdc3 /dev/sdd3
mdadm: /dev/md2 has been started with 3 drives.
root@jeanyves:~# sudo mount -v /dev/md2 /mnt
mount: /mnt : wrong fs type, bad option, bad superblock on /dev/md2, missing codepage or helper program, or other error.
root@jeanyves:~# df -h
Sys. de fichiers Taille Utilisé Dispo Uti% Monté sur
udev               3,6G       0  3,6G   0% /dev
tmpfs              746M    1,6M  744M   1% /run
/dev/sda4           99G    7,8G   86G   9% /
tmpfs              3,7G       0  3,7G   0% /dev/shm
tmpfs              5,0M    4,0K  5,0M   1% /run/lock
tmpfs              3,7G       0  3,7G   0% /sys/fs/cgroup
/dev/loop5         768K    768K     0 100% /snap/gnome-characters/726
/dev/loop1         640K    640K     0 100% /snap/gnome-logs/106
/dev/loop2         2,5M    2,5M     0 100% /snap/gnome-calculator/884
/dev/loop0         2,5M    2,5M     0 100% /snap/gnome-system-monitor/163
/dev/loop4          62M     62M     0 100% /snap/core20/1081
/dev/loop3         242M    242M     0 100% /snap/gnome-3-38-2004/70
/dev/loop7          56M     56M     0 100% /snap/core18/2128
/dev/loop9         219M    219M     0 100% /snap/gnome-3-34-1804/72
/dev/loop8          33M     33M     0 100% /snap/snapd/12883
/dev/loop6          66M     66M     0 100% /snap/gtk-common-themes/1515
tmpfs              746M     32K  746M   1% /run/user/1000
root@jeanyves:~# 

sauf sur le dernier df -h je ne vois pas les 3 disques.

Dernière modification par jyde (Le 27/05/2023, à 17:19)

Hors ligne

#75 Le 27/05/2023, à 17:20

geole

Re : reparer raid5 d'un synology via ubuntu.

sdb                                                                   
└─sdb3
     linux_ NAS920:2             c07c1894-125d-ab1d-c463-deee00ddfe1b 
  └─md2
     btrfs  2021.01.13-18:19:28 v25426
                                 ff6851ee-a74e-4839-a08b-31bf0c91f44f 
sdc                                                                   
└─sdc3
     linux_ NAS920:2             c07c1894-125d-ab1d-c463-deee00ddfe1b 
  └─md2
     btrfs  2021.01.13-18:19:28 v25426
                                 ff6851ee-a74e-4839-a08b-31bf0c91f44f 
sdd                                                                   
└─sdd3
     linux_ NAS920:2             c07c1894-125d-ab1d-c463-deee00ddfe1b 
  └─md2
     btrfs  2021.01.13-18:19:28 v25426
                                 ff6851ee-a74e-4839-a08b-31bf0c91f44f 

Donc totalement inutile  de faire des essais de réparation EXT4. C'est bien du BTRFS.   Est-ce toi qui avait choisi ce type de raids?   Si oui, c'est  comme cela. Si c'est le fournisseur, vu que j'ai lu récemment, il a commis une grosse erreur  en ne te prévenant  pas que le logiciel de ce type de raid n'est pas au point.

root@jeanyves:~#  sudo mount -v /dev/md2  /mnt

mount: /mnt : wrong fs type, bad option, bad superblock on /dev/md2, missing codepage or helper program, or other error.

Mais ce n'est pas du format EXT4  ce qui explique que les super blocs de secours ne soient pas listés

root@jeanyves:~# journalctl --no-pager -n 100
mai 27 17:48:38 jeanyves kernel: BTRFS info (device md2): flagging fs with big metadata feature
mai 27 17:48:38 jeanyves kernel: BTRFS info (device md2): using free space tree
mai 27 17:48:38 jeanyves kernel: BTRFS info (device md2): has skinny extents
mai 27 17:48:38 jeanyves kernel: BTRFS critical (device md2): corrupt leaf: root=1 block=77758464 slot=0, invalid root flags, have 0x400000000 expect mask 0x1000000000001
mai 27 17:48:38 jeanyves kernel: BTRFS error (device md2): block=77758464 read time tree block corruption detected
mai 27 17:48:39 jeanyves kernel: BTRFS critical (device md2): corrupt leaf: root=1 block=77758464 slot=0, invalid root flags, have 0x400000000 expect mask 0x1000000000001
mai 27 17:48:39 jeanyves kernel: BTRFS error (device md2): block=77758464 read time tree block corruption detected
mai 27 17:48:39 jeanyves kernel: BTRFS error (device md2): open_ctree failed
mai 27 17:49:48 jeanyves sudo[2436]:     root : TTY=pts/0 ; PWD=/root ; USER=root ; COMMAND=/bin/mount -v /dev/md2 /mnt
mai 27 17:49:48 jeanyves kernel: BTRFS: device label 2021.01.13-18:19:28 v25426 devid 1 transid 2952071 /dev/md2
mai 27 17:49:48 jeanyves kernel: BTRFS info (device md2): flagging fs with big metadata feature
mai 27 17:49:48 jeanyves kernel: BTRFS info (device md2): using free space tree
mai 27 17:49:48 jeanyves kernel: BTRFS info (device md2): has skinny extents
mai 27 17:49:48 jeanyves kernel: BTRFS critical (device md2): corrupt leaf: root=1 block=77758464 slot=0, invalid root flags, have 0x400000000 expect mask 0x1000000000001
mai 27 17:49:48 jeanyves kernel: BTRFS error (device md2): block=77758464 read time tree block corruption detected
mai 27 17:49:48 jeanyves kernel: BTRFS critical (device md2): corrupt leaf: root=1 block=77758464 slot=0, invalid root flags, have 0x400000000 expect mask 0x1000000000001
mai 27 17:49:48 jeanyves kernel: BTRFS error (device md2): block=77758464 read time tree block corruption detected
mai 27 17:49:48 jeanyves kernel: BTRFS error (device md2): open_ctree failed
mai 27 17:49:48 jeanyves sudo[2436]: pam_unix(sudo:session): session closed for user root
root@jeanyves:~#

On va voir si le problème est connu

Par contre il faut identifier les disques à recopier

Merci de donner ce retour

ls -ls /dev/disk/by-id

Dernière modification par geole (Le 27/05/2023, à 17:24)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

En ligne