Contenu | Rechercher | Menus

Annonce

DVD, clés USB et t-shirts Ubuntu-fr disponibles sur la boutique En Vente Libre

Si vous avez des soucis pour rester connecté, déconnectez-vous puis reconnectez-vous depuis ce lien en cochant la case
Me connecter automatiquement lors de mes prochaines visites.

À propos de l'équipe du forum.

#1 Le 01/05/2020, à 20:00

FreeLinux

Recupération disques NAS synlogie RAID SHR

Bonjour,

Mon NAS SYNOLOGY 412 + a planté est je souhaite récupérer mes données qui se trouvent sur les 4 disques SATA (2 disques en 3T, 1 Disque 2T et Disque 1T) en les connectant sur mon ordinateur qui a une configuration Ubuntu 19.4
A ce stade j'obtiens ça :


J'ai mes 4 Hard Disk vus, 3 ont été vus également en Raid, et j'ai bien mes deux volumes logiques 1 et 2 du Raid SHR

Mais je n'arrive pas à faire monter les Volumes logiques 1 et 2 pour que je puisse les lires.
J'ai essayé avec le logiciel et avec les commandes manuels.

J'ai bien créé un point de montage au préalable avec la commande
Mkdir /Données1

mais après ma commande suivante

mount /dev/vg1/volume_1  /Données1

j'obtiens l'erreur suivante :
mount: /Données: wrong fs type, bad option, bad superblock on /de/mapper/vg1-volume_1, missing codepage or helper program, or other error.

avez vous une idée pour résoudre cette erreur ?
merci

Hors ligne

#2 Le 02/05/2020, à 00:11

geole

Re : Recupération disques NAS synlogie RAID SHR

Bonsoir
Tu dis que le nas a planté. Il y a certainement une raison. Probablement des disques défectueux.
Installe smartmontools  smarmontools chapitre 1
puis donne les 4 retours de la commande prévue au paragraphe 3.1

puis plus tard, j'espère qu'un expert en raid passera, sinon je regarderais demain mon aide-mémoire.
Je suis presque certain qu'il n'y a  rien pour des disques de tailles différentes.

As-tu installé mdadm dans ton ordinateur ? https://doc.ubuntu-fr.org/raid_logiciel

Dernière modification par geole (Le 02/05/2020, à 00:16)

Hors ligne

#3 Le 02/05/2020, à 09:00

FreeLinux

Re : Recupération disques NAS synlogie RAID SHR

bonjour,
e nas a planté parcequ'il s’arrêtait toutes les cinq minutes et se relancait automatiquement
j'ai du faire un reset et deslors il me demande de formater les disques
- soit le nas me permet de retrouver ma configuration nas anterieur mais je ne connais pas les fonctions pour
- soit je sauvegarde d'abord les données des disques sur mon ordinateur et je remets les diques dans le nas pour tout reconfigurer

j'ai bien installé mdadm et lvm2

Hors ligne

#4 Le 02/05/2020, à 10:17

geole

Re : Recupération disques NAS synlogie RAID SHR

Bonjour
Tu commences en priorité à regarder l'état des disques et à fournir le rapport demandé. https://doc.ubuntu-fr.org/smartmontools
Tant que tu ne fourniras, je ne pourrais trouver quels disques sont à remplacer avant de remettre en état le ou les raids ou ou copier le contenu
.

Pour avoir un aperçu général  avec les  quatre disques branchés en même temps si cela est possible, donne le retour de cette commande

sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT

Pour connaître les vrais noms des disques, cela sera cette commande

ls -ls /dev/disk/by-id

Je vais bientôt ajouter quelques commandes pour  fournir la structure RAID. Je ne connais pas avec certitude l'ordre des commandes à faire.

Pour avoir la liste  détaillée on va regarder ce que celle-ci va donner

sudo mdadm --detail /dev/md[0-9] 

Dernière modification par geole (Le 02/05/2020, à 10:40)

Hors ligne

#5 Le 02/05/2020, à 10:35

FreeLinux

Re : Recupération disques NAS synlogie RAID SHR

Bonjour
Physiquement il y a six disques
1 pour de 120 GO pour le systeme
1 de 500 GO pour les fichiers de l'ordinateur /home
et 4 HARD DISK du serveur que j'ai connecté sur l'ordinateur pour pouvoir recupérer les données
après avoir utiliser lvm2 , j'ai deux volume logique qui sont remontés de la configuration initiale qui était sur le serveur. Ce sont les deux volumes que je n'arrive pas à faire "monter" pour les lires


Voici l'état des disques avec la commande fdisk -l

Disque /dev/loop0 : 149,93 MiB, 157192192 octets, 307016 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets

Disque /dev/loop1 : 62,9 MiB, 65105920 octets, 127160 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets

Disque /dev/loop2 : 956 KiB, 978944 octets, 1912 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets

Disque /dev/loop3 : 54,97 MiB, 57614336 octets, 112528 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets

Disque /dev/loop4 : 2,42 MiB, 2531328 octets, 4944 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets

Disque /dev/loop5 : 68,78 MiB, 72101888 octets, 140824 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets

Disque /dev/loop6 : 202,92 MiB, 212758528 octets, 415544 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets

Disque /dev/loop7 : 14,77 MiB, 15466496 octets, 30208 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets

Disque /dev/sda : 111,81 GiB, 120034123776 octets, 234441648 secteurs
Disk model: Verbatim Vi500 S
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Type d'étiquette de disque : gpt
Identifiant de disque : D938EA79-4C88-405E-A9F6-15022623D8E7

Périphérique Début       Fin  Secteurs Taille Type
/dev/sda1     2048 117189547 117187500  55,9G Système de fichiers Linux

Disque /dev/sdb : 465,78 GiB, 500107862016 octets, 976773168 secteurs
Disk model: CT500MX500SSD1  
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : dos
Identifiant de disque : 0x76ec2ec1

Périphérique Amorçage Début       Fin  Secteurs Taille Id Type
/dev/sdb1              2048 976771579 976769532 465,8G 83 Linux

Disque /dev/sdc : 2,75 TiB, 3000592982016 octets, 5860533168 secteurs
Disk model: WDC WD30EFRX-68N
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : gpt
Identifiant de disque : D4955BAB-39EC-4CB6-83C0-074701EF90E4

Périphérique      Début        Fin   Secteurs Taille Type
/dev/sdc1           256    4980735    4980480   2,4G RAID Linux
/dev/sdc2       4980736    9175039    4194304     2G RAID Linux
/dev/sdc5       9453280 1953511007 1944057728   927G RAID Linux
/dev/sdc6    1953527104 3907015007 1953487904 931,5G RAID Linux
/dev/sdc7    3907031104 5860519007 1953487904 931,5G RAID Linux

Disque /dev/sdd : 931,53 GiB, 1000204886016 octets, 1953525168 secteurs
Disk model: WDC WD10EFRX-68J
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : dos
Identifiant de disque : 0x0005237a

Périphérique Amorçage   Début        Fin   Secteurs Taille Id Type
/dev/sdd1                 256    4980735    4980480   2,4G fd RAID Linux autodét
/dev/sdd2             4980736    9175039    4194304     2G fd RAID Linux autodét
/dev/sdd3             9437184 1953511007 1944073824   927G  f Étendue W95 (LBA)
/dev/sdd5             9453280 1953511007 1944057728   927G fd RAID Linux autodét

Disque /dev/sde : 1,84 TiB, 2000398934016 octets, 3907029168 secteurs
Disk model: WDC WD20EFRX-68E
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : dos
Identifiant de disque : 0x000e5f3d

Périphérique Amorçage      Début        Fin   Secteurs Taille Id Type
/dev/sde1                    256    4980735    4980480   2,4G fd RAID Linux auto
/dev/sde2                4980736    9175039    4194304     2G fd RAID Linux auto
/dev/sde3                9437184 3907015007 3897577824   1,8T  f Étendue W95 (LB
/dev/sde5                9453280 1953511007 1944057728   927G fd RAID Linux auto
/dev/sde6             1953527104 3907015007 1953487904 931,5G fd RAID Linux auto

Disque /dev/sdf : 2,75 TiB, 3000592982016 octets, 5860533168 secteurs
Disk model: WDC WD30EFRX-68A
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : gpt
Identifiant de disque : CC80DF75-E20F-48C4-825A-82C4A933BCFA

Périphérique      Début        Fin   Secteurs Taille Type
/dev/sdf1           256    4980735    4980480   2,4G RAID Linux
/dev/sdf2       4980736    9175039    4194304     2G RAID Linux
/dev/sdf5       9453280 1953511007 1944057728   927G RAID Linux
/dev/sdf6    1953527104 3907015007 1953487904 931,5G RAID Linux
/dev/sdf7    3907031104 5860519007 1953487904 931,5G RAID Linux

Disque /dev/md2 : 2,73 TiB, 2986068934656 octets, 5832165888 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 65536 octets / 196608 octets

Disque /dev/md3 : 1,84 TiB, 2000369221632 octets, 3906971136 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 65536 octets / 131072 octets

Disque /dev/md4 : 931,51 GiB, 1000184610816 octets, 1953485568 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets

Disque /dev/mapper/vg1-syno_vg_reserved_area : 12 MiB, 12582912 octets, 24576 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 65536 octets / 196608 octets

Disque /dev/mapper/vg1-volume_1 : 1,18 TiB, 1288490188800 octets, 2516582400 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 65536 octets / 393216 octets

Disque /dev/mapper/vg1-volume_2 : 750 GiB, 805306368000 octets, 1572864000 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 65536 octets / 196608 octets

Disque /dev/loop8 : 956 KiB, 978944 octets, 1912 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets


Disque /dev/loop9 : 54,97 MiB, 57618432 octets, 112536 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets


Disque /dev/loop10 : 54,84 MiB, 57479168 octets, 112264 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets


Disque /dev/loop11 : 290,98 MiB, 305086464 octets, 595872 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets


Disque /dev/loop12 : 242,43 MiB, 254193664 octets, 496472 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets


Disque /dev/loop13 : 93,8 MiB, 98336768 octets, 192064 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets


Disque /dev/loop14 : 93,94 MiB, 98484224 octets, 192352 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets


Disque /dev/loop15 : 14,76 MiB, 15462400 octets, 30200 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets


Disque /dev/loop16 : 160,16 MiB, 167931904 octets, 327992 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets


Disque /dev/loop17 : 4,26 MiB, 4464640 octets, 8720 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets

Dernière modification par FreeLinux (Le 02/05/2020, à 11:17)

Hors ligne

#6 Le 02/05/2020, à 10:38

FreeLinux

Re : Recupération disques NAS synlogie RAID SHR

resultat avec la commande

root@souillard-bequiet:~# lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
  SIZE NAME                            FSTYPE            LABEL            MOUNTPOINT
149,9M loop0                           squashfs                           /snap/gnome-3-28-1804/71
 62,1M loop1                           squashfs                           /snap/gtk-common-themes/1506
  956K loop2                           squashfs                           /snap/gnome-logs/81
   55M loop3                           squashfs                           /snap/core18/1705
  2,4M loop4                           squashfs                           /snap/gnome-calculator/730
 68,8M loop5                           squashfs                           /snap/entropypianotuner/2
202,9M loop6                           squashfs                           /snap/vlc/1397
 14,8M loop7                           squashfs                           /snap/gnome-characters/495
  956K loop8                           squashfs                           /snap/gnome-logs/93
   55M loop9                           squashfs                           /snap/core18/1754
 54,8M loop10                          squashfs                           /snap/gtk-common-themes/1502
  291M loop11                          squashfs                           /snap/vlc/1620
242,4M loop12                          squashfs                           /snap/gnome-3-34-1804/27
 93,8M loop13                          squashfs                           /snap/core/8935
 93,9M loop14                          squashfs                           /snap/core/9066
 14,8M loop15                          squashfs                           /snap/gnome-characters/399
160,2M loop16                          squashfs                           /snap/gnome-3-28-1804/116
  4,3M loop17                          squashfs                           /snap/gnome-calculator/704
111,8G sda                                                                
 55,9G └─sda1                          ext4                               /
465,8G sdb                                                                
465,8G └─sdb1                          ext4                               /home
  2,7T sdc                                                                
  2,4G ├─sdc1                          linux_raid_member                  
    2G ├─sdc2                          linux_raid_member                  
  927G ├─sdc5                          linux_raid_member sl_diskstation:2 
  2,7T │ └─md2                         LVM2_member                        
   12M │   ├─vg1-syno_vg_reserved_area                                    
  1,2T │   ├─vg1-volume_1              ext4              1.41.10-2660     
  750G │   └─vg1-volume_2              ext4              1.41.10-2660     
931,5G ├─sdc6                          linux_raid_member sl_diskstation:3 
  1,8T │ └─md3                         LVM2_member                        
  1,2T │   └─vg1-volume_1              ext4              1.41.10-2660     
931,5G └─sdc7                          linux_raid_member sl_diskstation:4 
931,5G   └─md4                         LVM2_member                        
931,5G sdd                                                                
  2,4G ├─sdd1                          linux_raid_member                  
    2G ├─sdd2                          linux_raid_member                  
    1K ├─sdd3                                                             
  927G └─sdd5                          linux_raid_member sl_diskstation:2 
  2,7T   └─md2                         LVM2_member                        
   12M     ├─vg1-syno_vg_reserved_area                                    
  1,2T     ├─vg1-volume_1              ext4              1.41.10-2660     
  750G     └─vg1-volume_2              ext4              1.41.10-2660     
  1,8T sde                                                                
  2,4G ├─sde1                          linux_raid_member                  
    2G ├─sde2                          linux_raid_member                  
    1K ├─sde3                                                             
  927G ├─sde5                          linux_raid_member sl_diskstation:2 
  2,7T │ └─md2                         LVM2_member                        
   12M │   ├─vg1-syno_vg_reserved_area                                    
  1,2T │   ├─vg1-volume_1              ext4              1.41.10-2660     
  750G │   └─vg1-volume_2              ext4              1.41.10-2660     
931,5G └─sde6                          linux_raid_member sl_diskstation:3 
  1,8T   └─md3                         LVM2_member                        
  1,2T     └─vg1-volume_1              ext4              1.41.10-2660     
  2,7T sdf                                                                
  2,4G ├─sdf1                          linux_raid_member                  
    2G ├─sdf2                          linux_raid_member                  
  927G ├─sdf5                          linux_raid_member sl_diskstation:2 
  2,7T │ └─md2                         LVM2_member                        
   12M │   ├─vg1-syno_vg_reserved_area                                    
  1,2T │   ├─vg1-volume_1              ext4              1.41.10-2660     
  750G │   └─vg1-volume_2              ext4              1.41.10-2660     
931,5G ├─sdf6                          linux_raid_member sl_diskstation:3 
  1,8T │ └─md3                         LVM2_member                        
  1,2T │   └─vg1-volume_1              ext4              1.41.10-2660     
931,5G └─sdf7                          linux_raid_member sl_diskstation:4 
931,5G   └─md4                         LVM2_member

Dernière modification par FreeLinux (Le 02/05/2020, à 11:17)

Hors ligne

#7 Le 02/05/2020, à 10:40

FreeLinux

Re : Recupération disques NAS synlogie RAID SHR

resultat avec la commande 

ls -ls /dev/disk/by-id
total 0
0 lrwxrwxrwx 1 root root  9 mai    2 08:50 ata-CT500MX500SSD1_1947E2298CF6 -> ../../sdb
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 ata-CT500MX500SSD1_1947E2298CF6-part1 -> ../../sdb1
0 lrwxrwxrwx 1 root root  9 mai    2 08:50 ata-Verbatim_Vi500_S3_120GB_SSD_I49331R000803 -> ../../sda
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 ata-Verbatim_Vi500_S3_120GB_SSD_I49331R000803-part1 -> ../../sda1
0 lrwxrwxrwx 1 root root  9 mai    2 08:50 ata-WDC_WD10EFRX-68JCSN0_WD-WCC1U1203323 -> ../../sdd
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 ata-WDC_WD10EFRX-68JCSN0_WD-WCC1U1203323-part1 -> ../../sdd1
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 ata-WDC_WD10EFRX-68JCSN0_WD-WCC1U1203323-part2 -> ../../sdd2
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 ata-WDC_WD10EFRX-68JCSN0_WD-WCC1U1203323-part3 -> ../../sdd3
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 ata-WDC_WD10EFRX-68JCSN0_WD-WCC1U1203323-part5 -> ../../sdd5
0 lrwxrwxrwx 1 root root  9 mai    2 08:50 ata-WDC_WD20EFRX-68EUZN0_WD-WMC4M1158348 -> ../../sde
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 ata-WDC_WD20EFRX-68EUZN0_WD-WMC4M1158348-part1 -> ../../sde1
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 ata-WDC_WD20EFRX-68EUZN0_WD-WMC4M1158348-part2 -> ../../sde2
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 ata-WDC_WD20EFRX-68EUZN0_WD-WMC4M1158348-part3 -> ../../sde3
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 ata-WDC_WD20EFRX-68EUZN0_WD-WMC4M1158348-part5 -> ../../sde5
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 ata-WDC_WD20EFRX-68EUZN0_WD-WMC4M1158348-part6 -> ../../sde6
0 lrwxrwxrwx 1 root root  9 mai    2 08:50 ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T3779130 -> ../../sdf
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T3779130-part1 -> ../../sdf1
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T3779130-part2 -> ../../sdf2
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T3779130-part5 -> ../../sdf5
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T3779130-part6 -> ../../sdf6
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T3779130-part7 -> ../../sdf7
0 lrwxrwxrwx 1 root root  9 mai    2 08:50 ata-WDC_WD30EFRX-68N32N0_WD-WCC7K2JR4DAY -> ../../sdc
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 ata-WDC_WD30EFRX-68N32N0_WD-WCC7K2JR4DAY-part1 -> ../../sdc1
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 ata-WDC_WD30EFRX-68N32N0_WD-WCC7K2JR4DAY-part2 -> ../../sdc2
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 ata-WDC_WD30EFRX-68N32N0_WD-WCC7K2JR4DAY-part5 -> ../../sdc5
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 ata-WDC_WD30EFRX-68N32N0_WD-WCC7K2JR4DAY-part6 -> ../../sdc6
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 ata-WDC_WD30EFRX-68N32N0_WD-WCC7K2JR4DAY-part7 -> ../../sdc7
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 dm-name-vg1-syno_vg_reserved_area -> ../../dm-0
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 dm-name-vg1-volume_1 -> ../../dm-1
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 dm-name-vg1-volume_2 -> ../../dm-2
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 dm-uuid-LVM-ySD0a0KsbohqwIYa2NGlu59lmWfeVISbeHA2CzKNqmC0O0Kbr3dVwdO0YX0RHBhZ -> ../../dm-1
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 dm-uuid-LVM-ySD0a0KsbohqwIYa2NGlu59lmWfeVISbIwAu2umcqstxfsx4YzSYzN6I704OEZ38 -> ../../dm-0
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 dm-uuid-LVM-ySD0a0KsbohqwIYa2NGlu59lmWfeVISbo2YXSMFpeiBtj7aPcSl3Kt0md5ki5xxX -> ../../dm-2
0 lrwxrwxrwx 1 root root  9 mai    2 08:50 lvm-pv-uuid-AJ6RkF-AVm9-7RyQ-UMax-hd6L-rS3I-Sd91po -> ../../md2
0 lrwxrwxrwx 1 root root  9 mai    2 08:50 lvm-pv-uuid-UCMRTu-d3zh-1l9l-AUqm-JhMW-1uXQ-yIJh5S -> ../../md3
0 lrwxrwxrwx 1 root root  9 mai    2 08:50 lvm-pv-uuid-X0pLWk-KlaT-0M2N-ZBid-PTew-SZ4P-JnEHCf -> ../../md4
0 lrwxrwxrwx 1 root root  9 mai    2 08:50 md-name-sl_diskstation:2 -> ../../md2
0 lrwxrwxrwx 1 root root  9 mai    2 08:50 md-name-sl_diskstation:3 -> ../../md3
0 lrwxrwxrwx 1 root root  9 mai    2 08:50 md-name-sl_diskstation:4 -> ../../md4
0 lrwxrwxrwx 1 root root  9 mai    2 08:50 md-uuid-01e802e2:1d2f3792:9debc8f4:055109f2 -> ../../md2
0 lrwxrwxrwx 1 root root  9 mai    2 08:50 md-uuid-62ed7ceb:542dbbe2:b58f390b:23c6e104 -> ../../md3
0 lrwxrwxrwx 1 root root  9 mai    2 08:50 md-uuid-827b0577:5a2bfe22:fb3cc233:0894fba0 -> ../../md4
0 lrwxrwxrwx 1 root root  9 mai    2 08:50 wwn-0x50014ee058fc38d5 -> ../../sde
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 wwn-0x50014ee058fc38d5-part1 -> ../../sde1
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 wwn-0x50014ee058fc38d5-part2 -> ../../sde2
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 wwn-0x50014ee058fc38d5-part3 -> ../../sde3
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 wwn-0x50014ee058fc38d5-part5 -> ../../sde5
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 wwn-0x50014ee058fc38d5-part6 -> ../../sde6
0 lrwxrwxrwx 1 root root  9 mai    2 08:50 wwn-0x50014ee20fbf7eed -> ../../sdc
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 wwn-0x50014ee20fbf7eed-part1 -> ../../sdc1
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 wwn-0x50014ee20fbf7eed-part2 -> ../../sdc2
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 wwn-0x50014ee20fbf7eed-part5 -> ../../sdc5
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 wwn-0x50014ee20fbf7eed-part6 -> ../../sdc6
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 wwn-0x50014ee20fbf7eed-part7 -> ../../sdc7
0 lrwxrwxrwx 1 root root  9 mai    2 08:50 wwn-0x50014ee25d66671b -> ../../sdd
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 wwn-0x50014ee25d66671b-part1 -> ../../sdd1
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 wwn-0x50014ee25d66671b-part2 -> ../../sdd2
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 wwn-0x50014ee25d66671b-part3 -> ../../sdd3
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 wwn-0x50014ee25d66671b-part5 -> ../../sdd5
0 lrwxrwxrwx 1 root root  9 mai    2 08:50 wwn-0x50014ee658c3f87a -> ../../sdf
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 wwn-0x50014ee658c3f87a-part1 -> ../../sdf1
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 wwn-0x50014ee658c3f87a-part2 -> ../../sdf2
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 wwn-0x50014ee658c3f87a-part5 -> ../../sdf5
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 wwn-0x50014ee658c3f87a-part6 -> ../../sdf6
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 wwn-0x50014ee658c3f87a-part7 -> ../../sdf7
0 lrwxrwxrwx 1 root root  9 mai    2 08:50 wwn-0x500a0751e2298cf6 -> ../../sdb
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 wwn-0x500a0751e2298cf6-part1 -> ../../sdb1
0 lrwxrwxrwx 1 root root  9 mai    2 08:50 wwn-0x502b2a201d1c1b1a -> ../../sda
0 lrwxrwxrwx 1 root root 10 mai    2 08:50 wwn-0x502b2a201d1c1b1a-part1 -> ../../sda1

Dernière modification par FreeLinux (Le 02/05/2020, à 11:16)

Hors ligne

#8 Le 02/05/2020, à 10:43

FreeLinux

Re : Recupération disques NAS synlogie RAID SHR

resultat avec la commande :

mdadm --detail /dev/md[0-9]
/dev/md2:
           Version : 1.2
     Creation Time : Sat Jul 27 23:00:58 2013
        Raid Level : raid5
        Array Size : 2916082944 (2780.99 GiB 2986.07 GB)
     Used Dev Size : 972027648 (927.00 GiB 995.36 GB)
      Raid Devices : 4
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Fri May  1 10:35:11 2020
             State : clean 
    Active Devices : 4
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 0

            Layout : left-symmetric
        Chunk Size : 64K

Consistency Policy : resync

              Name : sl_diskstation:2
              UUID : 01e802e2:1d2f3792:9debc8f4:055109f2
            Events : 5239

    Number   Major   Minor   RaidDevice State

     

 4       8       37        0      active sync   /dev/sdc5
       1       8       53        1      active sync   /dev/sdd5
       2       8       85        2      active sync   /dev/sdf5
       3       8       69        3      active sync   /dev/sde5
/dev/md3:
           Version : 1.2
     Creation Time : Wed Jun 22 22:38:02 2016
        Raid Level : raid5
        Array Size : 1953485568 (1862.99 GiB 2000.37 GB)
     Used Dev Size : 976742784 (931.49 GiB 1000.18 GB)
      Raid Devices : 3
     Total Devices : 3
       Persistence : Superblock is persistent

       Update Time : Thu Apr 30 23:29:09 2020
             State : clean 
    Active Devices : 3
   Working Devices : 3
    Failed Devices : 0
     Spare Devices : 0

            Layout : left-symmetric
        Chunk Size : 64K

Consistency Policy : resync

              Name : sl_diskstation:3
              UUID : 62ed7ceb:542dbbe2:b58f390b:23c6e104
            Events : 3069

    Number   Major   Minor   RaidDevice State
       0       8       70        0      active sync   /dev/sde6
       1       8       86        1      active sync   /dev/sdf6
       2       8       38        2      active sync   /dev/sdc6
/dev/md4:
           Version : 1.2
     Creation Time : Sat Oct 20 15:24:12 2018
        Raid Level : raid1
        Array Size : 976742784 (931.49 GiB 1000.18 GB)
     Used Dev Size : 976742784 (931.49 GiB 1000.18 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Thu Apr 30 23:29:09 2020
             State : clean 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

              Name : sl_diskstation:4
              UUID : 827b0577:5a2bfe22:fb3cc233:0894fba0
            Events : 19

    Number   Major   Minor   RaidDevice State
       0       8       87        0      active sync   /dev/sdf7
       1       8       39        1      active sync   /dev/sdc7

Dernière modification par FreeLinux (Le 02/05/2020, à 11:19)

Hors ligne

#9 Le 02/05/2020, à 10:43

geole

Re : Recupération disques NAS synlogie RAID SHR

Peux-tu mettre en forme s'il te plaît en modifiant tes messages, puis sélectionner les réponses et enfin cliquer sur le onzième icone au-dessus de la zone  de saisie qui ressemble à cela   <>

Je te rappelle que l'urgence est le rapport smartclt.

Ce que je retiens de tes raids
/dev/md2:    Raid Level : raid5  Raid Devices : 4 Total Devices : 4  State : clean Active Devices : 4 Working Devices : 4 Failed Devices : 0
    Number   Major   Minor   RaidDevice State
       4       8       37        0      active sync   /dev/sdc5
       1       8       53        1      active sync   /dev/sdd5
       2       8       85        2      active sync   /dev/sdf5
       3       8       69        3      active sync   /dev/sde5
       Array Size : 2916082944 (2780.99 GiB 2986.07 GB)

/dev/md3:    Raid Level : raid5  Raid Devices : 3 Total Devices : 3  State : clean Active Devices : 3 Working Devices : 3 Failed Devices : 0
    Number   Major   Minor   RaidDevice State
       0       8       70        0      active sync   /dev/sde6
       1       8       86        1      active sync   /dev/sdf6
       2       8       38        2      active sync   /dev/sdc6
       Array Size : 1953485568 (1862.99 GiB 2000.37 GB)

dev/md4:     Raid Level : raid1  Raid Devices : 2 Total Devices : 2  State : clean Active Devices : 2 Working Devices : 2 Failed Devices : 0
    Number   Major   Minor   RaidDevice State
       0       8       87        0      active sync   /dev/sdf7
       1       8       39        1      active sync   /dev/sdc7
      Array Size : 976742784 (931.49 GiB 1000.18 GB)

Il ne devrait donc pas y avoir de problème de récupération pour cette partie si on ne commet pas d'erreur

Le problème semble se situer dans les partitions 1 et 2 des 4 disques. Mais pour une taille de 2,4 go et 2 Go. Je pense que tu n'as pas de données personnelles dans cet endroit.    C'est peut-être du logiciel de gestion du RAIDS????

/dev/sdX1           256    4980735    4980480   2,4G RAID Linux
/dev/sdX2       4980736    9175039    4194304     2G RAID Linux

Je note les noms des disques

0 lrwxrwxrwx 1 root root  9 mai    2 08:50 ata-WDC_WD30EFRX-68N32N0_WD-WCC7K2JR4DAY -> ../../sdc
0 lrwxrwxrwx 1 root root  9 mai    2 08:50 ata-WDC_WD10EFRX-68JCSN0_WD-WCC1U1203323 -> ../../sdd
0 lrwxrwxrwx 1 root root  9 mai    2 08:50 ata-WDC_WD20EFRX-68EUZN0_WD-WMC4M1158348 -> ../../sde
0 lrwxrwxrwx 1 root root  9 mai    2 08:50 ata-WDC_WD30EFRX-68AX9N0_WD-WMC1T3779130 -> ../../sdf

Dernière modification par geole (Le 02/05/2020, à 11:24)

Hors ligne

#10 Le 02/05/2020, à 11:11

cqfd93

Re : Recupération disques NAS synlogie RAID SHR

Modération

Bonjour,

Pour ajouter toi-même les balises code à tous tes messages :

  • Cliquer sur le lien « Modifier » en bas à droite du message

  • Sélectionner le texte

  • Cliquer sur le <> de l'éditeur de message
    1471986854.png


cqfd93

En ligne

#11 Le 02/05/2020, à 11:12

FreeLinux

Re : Recupération disques NAS synlogie RAID SHR

Désolé pour la forme mais c'est la première fois que j'utilise un forum pour avoir de l'aide en 30 ans
A quoi sert cette commande  ? et comment je l'utilise pour la mise en forme

Merci au modérateur OK j'ai compris

En effet pour les raids c'est bien la configuration que m'a été remontée suite à l'utilisation de LVM2
et il m'a remonté aussi deux volumes logiques qui pour moi s'appuient sur les raids

En effet les premières partitions de mes Raids (qui ne sont pas très lourdes ) n'apparaissent pas . Cela doit être une partition dédiée au serveur et non à mes données.

Si çà peut aider
disque

Dernière modification par FreeLinux (Le 02/05/2020, à 11:41)

Hors ligne

#12 Le 02/05/2020, à 11:23

geole

Re : Recupération disques NAS synlogie RAID SHR

sudo apt-get install --no-install-recommends smartmontools 
sudo smartctl  -s   on   -a   /dev/sdc
sudo smartctl  -s   on   -a   /dev/sdd
sudo smartctl  -s   on   -a   /dev/sde
sudo smartctl  -s   on   -a   /dev/sdf

en 4 retours mis en forme dans le même messages ou dans 4 messages. Je m'absente une heure

Dernière modification par geole (Le 02/05/2020, à 11:25)

Hors ligne

#13 Le 02/05/2020, à 11:59

FreeLinux

Re : Recupération disques NAS synlogie RAID SHR

Merci pour le temps passé
A tout à l'heure je pars me restaurer

Résultat sur disque sdc

root@souillard-bequiet:~# sudo smartctl  -s   on   -a   /dev/sdc
smartctl 7.0 2018-12-30 r4883 [x86_64-linux-5.3.0-51-generic] (local build)
Copyright (C) 2002-18, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Red
Device Model:     WDC WD30EFRX-68N32N0
Serial Number:    WD-WCC7K2JR4DAY
LU WWN Device Id: 5 0014ee 20fbf7eed
Firmware Version: 82.00A82
User Capacity:    3000592982016 bytes [3,00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    5400 rpm
Form Factor:      3.5 inches
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ACS-3 T13/2161-D revision 5
SATA Version is:  SATA 3.1, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is:    Sat May  2 11:49:58 2020 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x00)	Offline data collection activity
					was never started.
					Auto Offline Data Collection: Disabled.
Self-test execution status:      (   0)	The previous self-test routine completed
					without error or no self-test has ever 
					been run.
Total time to complete Offline 
data collection: 		(32520) seconds.
Offline data collection
capabilities: 			 (0x7b) SMART execute Offline immediate.
					Auto Offline data collection on/off support.
					Suspend Offline collection upon new
					command.
					Offline surface scan supported.
					Self-test supported.
					Conveyance Self-test supported.
					Selective Self-test supported.
SMART capabilities:            (0x0003)	Saves SMART data before entering
					power-saving mode.
					Supports SMART auto save timer.
Error logging capability:        (0x01)	Error logging supported.
					General Purpose Logging supported.
Short self-test routine 
recommended polling time: 	 (   2) minutes.
Extended self-test routine
recommended polling time: 	 ( 346) minutes.
Conveyance self-test routine
recommended polling time: 	 (   5) minutes.
SCT capabilities: 	       (0x303d)	SCT Status supported.
					SCT Error Recovery Control supported.
					SCT Feature Control supported.
					SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0027   167   166   021    Pre-fail  Always       -       6608
  4 Start_Stop_Count        0x0032   098   098   000    Old_age   Always       -       2637
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   100   253   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   099   099   000    Old_age   Always       -       1016
 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   098   098   000    Old_age   Always       -       2288
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       55
193 Load_Cycle_Count        0x0032   200   200   000    Old_age   Always       -       2614
194 Temperature_Celsius     0x0022   117   115   000    Old_age   Always       -       33
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   100   253   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   100   253   000    Old_age   Offline      -       0

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

Résultat sur disque sdd

root@souillard-bequiet:~# sudo smartctl  -s   on   -a   /dev/sdd
smartctl 7.0 2018-12-30 r4883 [x86_64-linux-5.3.0-51-generic] (local build)
Copyright (C) 2002-18, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Red
Device Model:     WDC WD10EFRX-68JCSN0
Serial Number:    WD-WCC1U1203323
LU WWN Device Id: 5 0014ee 25d66671b
Firmware Version: 01.01A01
User Capacity:    1000204886016 bytes [1,00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ATA8-ACS (minor revision not indicated)
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is:    Sat May  2 11:52:42 2020 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x00)	Offline data collection activity
					was never started.
					Auto Offline Data Collection: Disabled.
Self-test execution status:      (   0)	The previous self-test routine completed
					without error or no self-test has ever 
					been run.
Total time to complete Offline 
data collection: 		(13800) seconds.
Offline data collection
capabilities: 			 (0x7b) SMART execute Offline immediate.
					Auto Offline data collection on/off support.
					Suspend Offline collection upon new
					command.
					Offline surface scan supported.
					Self-test supported.
					Conveyance Self-test supported.
					Selective Self-test supported.
SMART capabilities:            (0x0003)	Saves SMART data before entering
					power-saving mode.
					Supports SMART auto save timer.
Error logging capability:        (0x01)	Error logging supported.
					General Purpose Logging supported.
Short self-test routine 
recommended polling time: 	 (   2) minutes.
Extended self-test routine
recommended polling time: 	 ( 157) minutes.
Conveyance self-test routine
recommended polling time: 	 (   5) minutes.
SCT capabilities: 	       (0x30bd)	SCT Status supported.
					SCT Error Recovery Control supported.
					SCT Feature Control supported.
					SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0027   139   133   021    Pre-fail  Always       -       4041
  4 Start_Stop_Count        0x0032   077   077   000    Old_age   Always       -       23355
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   090   090   000    Old_age   Always       -       7668
 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   078   078   000    Old_age   Always       -       22018
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       69
193 Load_Cycle_Count        0x0032   193   193   000    Old_age   Always       -       23285
194 Temperature_Celsius     0x0022   112   103   000    Old_age   Always       -       31
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   100   253   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   100   253   000    Old_age   Offline      -       0

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

Résultat sur disque sde

root@souillard-bequiet:~# sudo smartctl  -s   on   -a   /dev/sde
smartctl 7.0 2018-12-30 r4883 [x86_64-linux-5.3.0-51-generic] (local build)
Copyright (C) 2002-18, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Red
Device Model:     WDC WD20EFRX-68EUZN0
Serial Number:    WD-WMC4M1158348
LU WWN Device Id: 5 0014ee 058fc38d5
Firmware Version: 80.00A80
User Capacity:    2000398934016 bytes [2,00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    5400 rpm
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ACS-2 (minor revision not indicated)
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is:    Sat May  2 11:54:41 2020 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x00)	Offline data collection activity
					was never started.
					Auto Offline Data Collection: Disabled.
Self-test execution status:      (   0)	The previous self-test routine completed
					without error or no self-test has ever 
					been run.
Total time to complete Offline 
data collection: 		(26280) seconds.
Offline data collection
capabilities: 			 (0x7b) SMART execute Offline immediate.
					Auto Offline data collection on/off support.
					Suspend Offline collection upon new
					command.
					Offline surface scan supported.
					Self-test supported.
					Conveyance Self-test supported.
					Selective Self-test supported.
SMART capabilities:            (0x0003)	Saves SMART data before entering
					power-saving mode.
					Supports SMART auto save timer.
Error logging capability:        (0x01)	Error logging supported.
					General Purpose Logging supported.
Short self-test routine 
recommended polling time: 	 (   2) minutes.
Extended self-test routine
recommended polling time: 	 ( 266) minutes.
Conveyance self-test routine
recommended polling time: 	 (   5) minutes.
SCT capabilities: 	       (0x703d)	SCT Status supported.
					SCT Error Recovery Control supported.
					SCT Feature Control supported.
					SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       3
  3 Spin_Up_Time            0x0027   171   169   021    Pre-fail  Always       -       4441
  4 Start_Stop_Count        0x0032   082   082   000    Old_age   Always       -       18763
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   100   253   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   092   092   000    Old_age   Always       -       6421
 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   083   083   000    Old_age   Always       -       17490
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       43
193 Load_Cycle_Count        0x0032   194   194   000    Old_age   Always       -       18719
194 Temperature_Celsius     0x0022   115   106   000    Old_age   Always       -       32
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   100   253   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   100   253   000    Old_age   Offline      -       0

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

résultat sur le dernier disque sdf

root@souillard-bequiet:~# sudo smartctl  -s   on   -a   /dev/sdf
smartctl 7.0 2018-12-30 r4883 [x86_64-linux-5.3.0-51-generic] (local build)
Copyright (C) 2002-18, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Red
Device Model:     WDC WD30EFRX-68AX9N0
Serial Number:    WD-WMC1T3779130
LU WWN Device Id: 5 0014ee 658c3f87a
Firmware Version: 80.00A80
User Capacity:    3000592982016 bytes [3,00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ACS-2 (minor revision not indicated)
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is:    Sat May  2 11:56:01 2020 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x00)	Offline data collection activity
					was never started.
					Auto Offline Data Collection: Disabled.
Self-test execution status:      (   0)	The previous self-test routine completed
					without error or no self-test has ever 
					been run.
Total time to complete Offline 
data collection: 		(40380) seconds.
Offline data collection
capabilities: 			 (0x7b) SMART execute Offline immediate.
					Auto Offline data collection on/off support.
					Suspend Offline collection upon new
					command.
					Offline surface scan supported.
					Self-test supported.
					Conveyance Self-test supported.
					Selective Self-test supported.
SMART capabilities:            (0x0003)	Saves SMART data before entering
					power-saving mode.
					Supports SMART auto save timer.
Error logging capability:        (0x01)	Error logging supported.
					General Purpose Logging supported.
Short self-test routine 
recommended polling time: 	 (   2) minutes.
Extended self-test routine
recommended polling time: 	 ( 405) minutes.
Conveyance self-test routine
recommended polling time: 	 (   5) minutes.
SCT capabilities: 	       (0x70bd)	SCT Status supported.
					SCT Error Recovery Control supported.
					SCT Feature Control supported.
					SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       41
  3 Spin_Up_Time            0x0027   181   177   021    Pre-fail  Always       -       5908
  4 Start_Stop_Count        0x0032   077   077   000    Old_age   Always       -       23342
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   100   253   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   090   090   000    Old_age   Always       -       7656
 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   078   078   000    Old_age   Always       -       22005
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       57
193 Load_Cycle_Count        0x0032   193   193   000    Old_age   Always       -       23284
194 Temperature_Celsius     0x0022   115   109   000    Old_age   Always       -       35
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   100   253   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   100   253   000    Old_age   Offline      -       0

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

Dernière modification par FreeLinux (Le 02/05/2020, à 12:01)

Hors ligne

#14 Le 02/05/2020, à 14:08

geole

Re : Recupération disques NAS synlogie RAID SHR

Voila mon diagnostic sur l'état des disques. Les quatre disques sont en excellant état.  Il n'y en a aucun à remplacer.

Voici ma proposition de montage pour tes raids.   Dans l'ancien temps, on montait tout cela dans /media/$USER.  J'ai constaté qu'avec l'arrivée des nouveaux systèmes de partition en ZFS, le logiciel n'a pas hésité à faire du montage directement sur la racine. Donc c'est ce que je propose.
Bien entendu, tu peux choisir d'autres endroits  ou d'autres noms comme point de montage
1) Création de trois points de montage avec approppriation

sudo  mkdir   -v    /Raid3To
sudo chown  -v   $USER:$USER   /Raid3To

sudo  mkdir   -v    /Raid2To
sudo chown  -v   $USER:$USER   /Raid2To

sudo  mkdir   -v    /Raid1To
sudo chown  -v   $USER:$USER   /Raid1To

2) Montage des RAIDS pour utilisation.  Tu peux noter qu'on peut automatiser cette commande en mettant à jour le fichier /etc/stab

sudo   mount   -v   /dev/md2    /Raid3To

sudo   mount   -v   /dev/md3    /Raid2To

sudo   mount   -v   /dev/md4    /Raid1To

3) Vérification et utilisation du contenu

ls    -ls   /Raid3To
ls    -ls   /Raid2To
ls    -ls   /Raid1To

4) Tu peux utiliser ces disques le temps que tu voudras  avec ton ordinateur en ne remplaçant pas le NAS.

Voici un avis sur ton problème du nas. Je ne le connais pas du tout. Alors je peux dire des erreurs
    -   Il est complètement fichu et à remplacer
    -   Il a voulu faire une mise à jour de son logiciel mais cette mise à jour n'est pas de bonne qualité.
    -   Tu lui as demandé de faire une commande pas habituelle avec un mauvais paramétrage.
    -   Autre cause.

Voici un avis au cas où tu voudrais le remettre en route.
    - Commander trois nouveaux disques de 3 To. Les mettre dans  le nas en raids5 ( un ou deux) en disant qu'il  manque un disque si c'est possible.
    - Monter le nas en réseau (cela devrait être possible assez facilement)
    - Transférer les répertoires via le réseau
    -  Lorsque c'est fini, récupérer  un de deux disques de 3 To (SDC est le plus récent) et l'ajouter au NAS.
D'autres variantes, Acheter un disque de plus et faire le transfert  des répertoires . Un ou plusieurs à la fois suivant la taille du disque.
    Acheter encore un disque de plus, et mettre directement en route avec 4 disques dans le nas.
Une autre variante possible, comme tes 4 disques sont en bon état, tu peux en déclarer un de 3 To (SDC est le plus récent)   FAULTY, le démonter et l'utiliser  comme un futur disque  du nas.
Il y a donc pas mal de possibilités.

Dernière modification par geole (Le 02/05/2020, à 14:12)

Hors ligne

#15 Le 02/05/2020, à 14:57

FreeLinux

Re : Recupération disques NAS synlogie RAID SHR

J'ai essayé avec le Raid1
Mais a priori  je n'arrive pas à changer de propriétaire : où je trouve les noms où comment je force ?

root@souillard-bequiet:~# sudo  mkdir   -v    /Raid1To
mkdir: création du répertoire '/Raid1To'
root@souillard-bequiet:~# sudo chown  -v   $souillard:$souillard   /Raid1To
l'appartenance de '/Raid1To' a été maintenue
root@souillard-bequiet:~# sudo   mount   -v   /dev/md4    /Raid1To
mount: /Raid1To: type de système de fichiers « LVM2_member » inconnu.

Désolé j'ai fait une erreur de saisie pour le changement de propriétaire
Maintenant ca bloque sur la dernière commande

root@souillard-bequiet:~# sudo chown  -v   souillard:souillard   /Raid1To
appartenance de '/Raid1To' modifiée de root:root en souillard:souillard
root@souillard-bequiet:~# sudo   mount   -v   /dev/md4    /Raid1To
mount: /Raid1To: type de système de fichiers « LVM2_member » inconnu.

Les raids ont un type de fichier "LVm2"
Alors que mes deux volumes /dev/vg1/volume_1 et /dev/vg1/volume_2 ont des types de fichier Ext 4

J'ai essayé de monter un des volumes et je n'y arrive pas également ci-dessous l'erreur

root@souillard-bequiet:~# mount /dev/vg1/volume_1  /Données1
mount: /Données1: wrong fs type, bad option, bad superblock on /dev/mapper/vg1-volume_1, missing codepage or helper program, or other error.
root@souillard-bequiet:~# chown -v souillard:souillard /Données1
appartenance de '/Données1' modifiée de root:root en souillard:souillard
root@souillard-bequiet:~# mount -v /dev/vg1/volume_1 /Données1
mount: /Données1: wrong fs type, bad option, bad superblock on /dev/mapper/vg1-volume_1, missing codepage or helper program, or other error.

Dernière modification par FreeLinux (Le 02/05/2020, à 15:29)

Hors ligne

#16 Le 02/05/2020, à 18:25

geole

Re : Recupération disques NAS synlogie RAID SHR

Je crois qu'on va s'amuser un peu.
Pour le premier point

root@souillard-bequiet:~# sudo  mkdir   -v    /Raid1To
mkdir: création du répertoire '/Raid1To'
[b]root[/b]@souillard-bequiet:~# sudo chown  -v   $souillard:$souillard   /Raid1To
l'appartenance de '/Raid1To' a été maintenue

Tu  travaillais en mode root et pas avec ton nom  d'utilisateur   Mais tu as rectifié correctement
Mais " « LVM2_member » inconnu" est plus embêtant

Fais quand même les tentatives de montages pour les deux autres raids   Si on a le même type d'erreur, on saura qu'en trouvant pour le  premier , on trouvera pour des deux autres.

Dans le forum, il y a d'autres personnes qui vont peut-être voir le problème nouveau. 
Pour ma part, je vais commencer  à lire la documentation de ton NAS afin de voir si on trouve quelque chose qui peut aider.  Je ne vais certainement  rien trouver d'ici  demain matin
===> Une documentation https://www.ip-sa.com.pl/doc/documentat … er_enu.pdf
Je viens de comprendre que ce n'est probablement  pas du raids5, mais du synology Hybrid Raid

Habituellement on travaille  sous son nom d'utilisateur exemple

a@a-usb:~$ ls
Bureau  Documents  Modèles  Public           Vidéos
chroot  Images     Musique  Téléchargements
a@a-usb:~$ echo $USER
a
a@a-usb:~$ 

pour passer en root on fait souvent la commande

a@a-usb:~$ sudo -i
[sudo] Mot de passe de a : 
root@a-usb:~# 

Dans ce cas, toutes les commandes changent

root@a-usb:~# ls 
root@a-usb:~# 

Pour quitter ce mode, il suffit de frapper la commande exit et on se retrouve dans son propre environnement

root@a-usb:~# exit
déconnexion
a@a-usb:~$ ls
Bureau  Documents  Modèles  Public           Vidéos
chroot  Images     Musique  Téléchargements
a@a-usb:~$

Dernière modification par geole (Le 02/05/2020, à 22:23)

Hors ligne

#17 Le 02/05/2020, à 23:16

FreeLinux

Re : Recupération disques NAS synlogie RAID SHR

Bonsoir,
C'est la même chose avec les deux autres RAID

souillard@souillard-bequiet:~$ sudo  mkdir   -v    /Raid3To
[sudo] Mot de passe de souillard : 
mkdir: création du répertoire '/Raid3To'
souillard@souillard-bequiet:~$ sudo  mkdir   -v    /Raid2To
mkdir: création du répertoire '/Raid2To'
souillard@souillard-bequiet:~$ sudo chown  -v   souillard:souillard   /Raid3To
appartenance de '/Raid3To' modifiée de root:root en souillard:souillard
souillard@souillard-bequiet:~$ sudo chown -v souillard:souillard  /Raid2To
appartenance de '/Raid2To' modifiée de root:root en souillard:souillard
souillard@souillard-bequiet:~$ sudo   mount   -v   /dev/md2    /Raid3To
mount: /Raid3To: type de système de fichiers « LVM2_member » inconnu.
souillard@souillard-bequiet:~$ sudo   mount   -v   /dev/md3    /Raid2To
mount: /Raid2To: type de système de fichiers « LVM2_member » inconnu.
souillard@souillard-bequiet:~$ 

pour information pour faire apparaître les Raids et les Volumes logiques j'avais tapé des commandes ce type

mdadm -Asf && vgchange -ay

mais je n'ai pas procédé à de l'assemblage

vu que les volumes logiques sont apparus je me suis dis qu'il suffisait de les faire monter pour les lire et là erreur
j'ai utilisé le tuto suivant
page synlogy

je peux attendre Il faut juste que j'arrive à récupérer les données (photos et films perso)

Dernière modification par FreeLinux (Le 02/05/2020, à 23:59)

Hors ligne

#18 Le 02/05/2020, à 23:32

geole

Re : Recupération disques NAS synlogie RAID SHR

j'ai commencé à lire la documentation.
Ce nas aurait la possibilité de faire du raids avec des disques de tailles  différantes d'où l'obligation de mettre la couche LVM . A ma connaissance MDADM ne gère pas.

Je crains que tu n'ais pas d'autre choix que de remettre tes 4 disques dans ce nas et de trouver le problème en évitant le formatage. Peut-être que par sécurité, dupliquer les  4 disques pourrait être envisagé.
Si tu peux attendre quelques jours.   Je vais essayer d'avoir de l'aide.

Dernière modification par geole (Le 02/05/2020, à 23:52)

Hors ligne

#19 Le 03/05/2020, à 00:12

geole

Re : Recupération disques NAS synlogie RAID SHR

j'ai trouvé cette discussion qui évoque ce qu'il faut faire en plus.
Mais je ne sais pas la décortiquer.
https://debian-facile.org/viewtopic.php?id=20060
Des commandes comme pvs, vgs et lvs permettent d'afficher les différents niveaux de LVM

Si je comprends bien, il faut faire la commande

vgchange -ay

avant de proceder aux montages.

Dernière modification par geole (Le 03/05/2020, à 00:21)

Hors ligne

#20 Le 03/05/2020, à 11:24

geole

Re : Recupération disques NAS synlogie RAID SHR

FreeLinux a écrit :

pour information pour faire apparaître les Raids et les Volumes logiques j'avais tapé des commandes ce type

mdadm -Asf && vgchange -ay

mais je n'ai pas procédé à de l'assemblage
vu que les volumes logiques sont apparus je me suis dis qu'il suffisait de les faire monter pour les lire et là erreur
j'ai utilisé le tuto suivant
page synlogy

Bonjour
Pour le moment, je pense comme toi,
Il n'y aurait pas lieu de faire l'assemblage cependant d'après la documentation il y aurait malgré tout lieu de faire la commande

vgchange -ay

Je n'arrive pas à savoir si tu l'as faite.
C'est peut-être suffisant pour procéder ensuite au montage.

Dernière modification par geole (Le 03/05/2020, à 11:25)

Hors ligne

#21 Le 03/05/2020, à 13:19

FreeLinux

Re : Recupération disques NAS synlogie RAID SHR

Bonjour
J'avais déjà appliqué la commande que je viens de refaire

sudo vgchange -ay

pour activer le groupe de volume (ici vg1)

je viens également d'activer les volumes logique 1 et 2 avec la commande

lvchange -ay /dev/vg1/volume_1

et j'ai essayé à nouveau de faire le montage suivant et j'ai toujours la même erreur

sudo mount /dev/vg1/volume_1 /Données1
mount: /Données1: wrong fs type, bad option, bad superblock on /dev/mapper/vg1-volume_1, missing codepage or helper program, or other error.

je vais encore creuser le sujet mais en parallèle je cherche le plan "b" a savoir :

si je n'arrive pas à remonter le serveur sur l'ordinateur, n' y a t il pas une manipulation pour lire les disques un par un et je ferai une copie des fichiers avant de les remettre dans le serveur pour tout reconfigurer ?

Hors ligne

#22 Le 03/05/2020, à 13:57

geole

Re : Recupération disques NAS synlogie RAID SHR

On va donc continuer à creuser pour trouver..
En RAID5, le fichier est éclaté sur plusieurs disques. Je ne connais pas comment faire sauf à récupérer des morceaux  de fichiers sans aucun nom.
En RAID1, le fichier est en double exemplaire:  Un par  disque. On peut donc récupérer plus facilement tout le fichier
Ce sont des procédures que je connais un peu et  utilisées lorsque les disques sont en mauvais état. Mais dans ton contexte, ce n'est pas le cas.

Peux-tu donner le retour de cette commande qui pourrait contenir des remarques supplémentaires sur la cause du refus

dmesg | tail -100

Peut-être une version du logiciel LVM ou un paramétrage supplémentaire

On va essayer de le faire parler en mode debbuging

lvchange -dayv /dev/vg1/volume_1

Il y aurait aussi cette option (pas certain de la codification)

 lvchange --syncaction check /dev/vg1/volume_1

Dernière modification par geole (Le 03/05/2020, à 14:10)

Hors ligne

#23 Le 03/05/2020, à 15:21

FreeLinux

Re : Recupération disques NAS synlogie RAID SHR

Résultat de la première commande

souillard@souillard-bequiet:~$ sudo dmesg | tail -100
[sudo] Mot de passe de souillard : 
[    4.396747] checking generic (a1000000 130000) vs hw (90000000 10000000)
[    4.396748] checking generic (a1000000 130000) vs hw (a0000000 2000000)
[    4.396748] fb0: switching to nouveaufb from VESA VGA
[    4.396792] Console: switching to colour dummy device 80x25
[    4.396855] nouveau 0000:01:00.0: NVIDIA TU106 (166000a1)
[    4.403064] snd_hda_intel 0000:01:00.1: Disabling MSI
[    4.403067] snd_hda_intel 0000:01:00.1: Handle vga_switcheroo audio client
[    4.468385] snd_hda_codec_realtek hdaudioC0D0: autoconfig for ALC892: line_outs=4 (0x14/0x15/0x16/0x17/0x0) type:line
[    4.468387] snd_hda_codec_realtek hdaudioC0D0:    speaker_outs=0 (0x0/0x0/0x0/0x0/0x0)
[    4.468387] snd_hda_codec_realtek hdaudioC0D0:    hp_outs=1 (0x1b/0x0/0x0/0x0/0x0)
[    4.468388] snd_hda_codec_realtek hdaudioC0D0:    mono: mono_out=0x0
[    4.468388] snd_hda_codec_realtek hdaudioC0D0:    inputs:
[    4.468389] snd_hda_codec_realtek hdaudioC0D0:      Front Mic=0x19
[    4.468390] snd_hda_codec_realtek hdaudioC0D0:      Rear Mic=0x18
[    4.468390] snd_hda_codec_realtek hdaudioC0D0:      Line=0x1a
[    4.473363] nouveau 0000:01:00.0: bios: version 90.06.2e.40.37
[    4.475287] nouveau 0000:01:00.0: fb: 6144 MiB GDDR6
[    4.486359] input: HDA Intel PCH Front Mic as /devices/pci0000:00/0000:00:1f.3/sound/card0/input8
[    4.486390] input: HDA Intel PCH Rear Mic as /devices/pci0000:00/0000:00:1f.3/sound/card0/input9
[    4.486418] input: HDA Intel PCH Line as /devices/pci0000:00/0000:00:1f.3/sound/card0/input10
[    4.486448] input: HDA Intel PCH Line Out Front as /devices/pci0000:00/0000:00:1f.3/sound/card0/input11
[    4.486469] input: HDA Intel PCH Line Out Surround as /devices/pci0000:00/0000:00:1f.3/sound/card0/input12
[    4.486491] input: HDA Intel PCH Line Out CLFE as /devices/pci0000:00/0000:00:1f.3/sound/card0/input13
[    4.486510] input: HDA Intel PCH Line Out Side as /devices/pci0000:00/0000:00:1f.3/sound/card0/input14
[    4.486534] input: HDA Intel PCH Front Headphone as /devices/pci0000:00/0000:00:1f.3/sound/card0/input15
[    4.513726] [TTM] Zone  kernel: Available graphics memory: 8166050 KiB
[    4.513727] [TTM] Zone   dma32: Available graphics memory: 2097152 KiB
[    4.513727] [TTM] Initializing pool allocator
[    4.513729] [TTM] Initializing DMA pool allocator
[    4.513743] nouveau 0000:01:00.0: DRM: VRAM: 6144 MiB
[    4.513744] nouveau 0000:01:00.0: DRM: GART: 536870912 MiB
[    4.513745] nouveau 0000:01:00.0: DRM: BIT table 'A' not found
[    4.513746] nouveau 0000:01:00.0: DRM: BIT table 'L' not found
[    4.513747] nouveau 0000:01:00.0: DRM: TMDS table version 2.0
[    4.513747] nouveau 0000:01:00.0: DRM: DCB version 4.1
[    4.513748] nouveau 0000:01:00.0: DRM: DCB outp 00: 02800f66 04600020
[    4.513749] nouveau 0000:01:00.0: DRM: DCB outp 01: 02000f62 04620020
[    4.513750] nouveau 0000:01:00.0: DRM: DCB outp 03: 02011f52 00020010
[    4.513750] nouveau 0000:01:00.0: DRM: DCB outp 07: 01044f32 04620030
[    4.513751] nouveau 0000:01:00.0: DRM: DCB conn 00: 00020046
[    4.513752] nouveau 0000:01:00.0: DRM: DCB conn 01: 00010161
[    4.513752] nouveau 0000:01:00.0: DRM: DCB conn 04: 00001431
[    4.513937] nouveau 0000:01:00.0: DRM: failed to create kernel channel, -22
[    4.514056] nouveau 0000:01:00.0: DRM: MM: using COPY for buffer copies
[    4.523963] iwlwifi 0000:03:00.0: base HW address: 04:ed:33:4d:73:62
[    4.528414] intel_rapl_common: Found RAPL domain package
[    4.528415] intel_rapl_common: Found RAPL domain core
[    4.528416] intel_rapl_common: Found RAPL domain dram
[    4.534589] [drm] Supports vblank timestamp caching Rev 2 (21.10.2013).
[    4.534590] [drm] Driver supports precise vblank timestamp query.
[    4.536955] thermal thermal_zone3: failed to read out thermal zone (-61)
[    4.537552] iwlwifi 0000:03:00.0 wlp3s0: renamed from wlan0
[    4.714477] nouveau 0000:01:00.0: DRM: allocated 1280x1024 fb: 0x200000, bo 00000000db502b28
[    4.714521] fbcon: nouveaudrmfb (fb0) is primary device
[    4.714557] Console: switching to colour frame buffer device 160x64
[    4.714587] nouveau 0000:01:00.0: fb0: nouveaudrmfb frame buffer device
[    4.753742] [drm] Initialized nouveau 1.3.1 20120801 for 0000:01:00.0 on minor 0
[    5.194097] input: HDA NVidia HDMI/DP,pcm=3 as /devices/pci0000:00/0000:00:01.0/0000:01:00.1/sound/card1/input16
[    5.194123] input: HDA NVidia HDMI/DP,pcm=7 as /devices/pci0000:00/0000:00:01.0/0000:01:00.1/sound/card1/input17
[    5.194146] input: HDA NVidia HDMI/DP,pcm=8 as /devices/pci0000:00/0000:00:01.0/0000:01:00.1/sound/card1/input18
[    5.286617] nvidia-gpu 0000:01:00.3: i2c timeout error e0000000
[    5.286653] ucsi_ccg 0-0008: i2c_transfer failed -110
[    5.286668] ucsi_ccg 0-0008: ucsi_ccg_init failed - -110
[    5.286685] ucsi_ccg: probe of 0-0008 failed with error -110
[    5.369189] EXT4-fs (sdb1): mounted filesystem with ordered data mode. Opts: (null)
[    5.396037] audit: type=1400 audit(1588510775.422:2): apparmor="STATUS" operation="profile_load" profile="unconfined" name="libreoffice-oopslash" pid=1577 comm="apparmor_parser"
[    5.396389] audit: type=1400 audit(1588510775.422:3): apparmor="STATUS" operation="profile_load" profile="unconfined" name="/usr/bin/man" pid=1578 comm="apparmor_parser"
[    5.396390] audit: type=1400 audit(1588510775.422:4): apparmor="STATUS" operation="profile_load" profile="unconfined" name="man_filter" pid=1578 comm="apparmor_parser"
[    5.396391] audit: type=1400 audit(1588510775.422:5): apparmor="STATUS" operation="profile_load" profile="unconfined" name="man_groff" pid=1578 comm="apparmor_parser"
[    5.399309] audit: type=1400 audit(1588510775.426:6): apparmor="STATUS" operation="profile_load" profile="unconfined" name="lsb_release" pid=1583 comm="apparmor_parser"
[    5.399927] audit: type=1400 audit(1588510775.426:7): apparmor="STATUS" operation="profile_load" profile="unconfined" name="/usr/sbin/tcpdump" pid=1579 comm="apparmor_parser"
[    5.400444] audit: type=1400 audit(1588510775.426:8): apparmor="STATUS" operation="profile_load" profile="unconfined" name="/usr/sbin/cups-browsed" pid=1576 comm="apparmor_parser"
[    5.401998] audit: type=1400 audit(1588510775.430:9): apparmor="STATUS" operation="profile_load" profile="unconfined" name="/sbin/dhclient" pid=1574 comm="apparmor_parser"
[    5.401999] audit: type=1400 audit(1588510775.430:10): apparmor="STATUS" operation="profile_load" profile="unconfined" name="/usr/lib/NetworkManager/nm-dhcp-client.action" pid=1574 comm="apparmor_parser"
[    5.402000] audit: type=1400 audit(1588510775.430:11): apparmor="STATUS" operation="profile_load" profile="unconfined" name="/usr/lib/NetworkManager/nm-dhcp-helper" pid=1574 comm="apparmor_parser"
[    5.829635] Bluetooth: hci0: Waiting for firmware download to complete
[    5.830033] Bluetooth: hci0: Firmware loaded in 1496521 usecs
[    5.830051] Bluetooth: hci0: Waiting for device to boot
[    5.843037] Bluetooth: hci0: Device booted in 12689 usecs
[    5.851006] Bluetooth: hci0: Found Intel DDC parameters: intel/ibt-20-1-3.ddc
[    5.866038] Bluetooth: hci0: Applying Intel DDC parameters completed
[    6.173216] Bluetooth: BNEP (Ethernet Emulation) ver 1.3
[    6.173216] Bluetooth: BNEP filters: protocol multicast
[    6.173218] Bluetooth: BNEP socket layer initialized
[    6.630665] iwlwifi 0000:03:00.0: Applying debug destination EXTERNAL_DRAM
[    6.779107] iwlwifi 0000:03:00.0: FW already configured (0) - re-configuring
[    6.782472] iwlwifi 0000:03:00.0: BIOS contains WGDS but no WRDS
[    8.777399] rfkill: input handler disabled
[    9.537810] wlp3s0: authenticate with 34:27:92:88:5b:05
[    9.541476] wlp3s0: send auth to 34:27:92:88:5b:05 (try 1/3)
[    9.566214] wlp3s0: authenticated
[    9.569616] wlp3s0: associate with 34:27:92:88:5b:05 (try 1/3)
[    9.571438] wlp3s0: RX AssocResp from 34:27:92:88:5b:05 (capab=0x11 status=0 aid=2)
[    9.573991] wlp3s0: associated
[    9.604738] IPv6: ADDRCONF(NETDEV_CHANGE): wlp3s0: link becomes ready
[   22.560969] Bluetooth: RFCOMM TTY layer initialized
[   22.560972] Bluetooth: RFCOMM socket layer initialized
[   22.560974] Bluetooth: RFCOMM ver 1.11
[   22.650829] rfkill: input handler enabled
[   24.892544] rfkill: input handler disabled

pour la deuxième commande ci-joint le résultat il y a une erreur

souillard@souillard-bequiet:~$ sudo lvchange -dayv /dev/vg1/volume_1
  Invalid argument for --activate: yv
  Error during parsing of command line.

et pour la troisième ce n'est pas autorisée

souillard@souillard-bequiet:~$ sudo  lvchange --syncaction check /dev/vg1/volume_1
[sudo] Mot de passe de souillard : 
  Command on LV vg1/volume_1 does not accept LV type linear.
  Command not permitted on LV vg1/volume_1.

Dernière modification par FreeLinux (Le 03/05/2020, à 15:41)

Hors ligne

#24 Le 03/05/2020, à 18:28

geole

Re : Recupération disques NAS synlogie RAID SHR

Pour la première commande
Il n'y a rien du tout  dans la trace c'est un peu surprenant. Mais il est possible que le RAIDS soit monté très tôt au moment du boot

J'ai tenté de proposer à partir de ce que propose  la commande  en essayant de voir ce qui pouvait convenir   et je ne peux pas essayer: Je n'ai pas de LVM dans un RAID.

man lvchange

Peut-être que cette syntaxe sera meilleure.

sudo lvchange   --debug  --verbose --activate y   /dev/vg1/volume_1

ou celle-ci

sudo lvchange   -d  -v -ay /dev/vg1/volume_1

Dernière modification par geole (Le 03/05/2020, à 18:31)

Hors ligne

#25 Le 03/05/2020, à 18:41

FreeLinux

Re : Recupération disques NAS synlogie RAID SHR

ci dessous le résultat des commandes

souillard@souillard-bequiet:~$ sudo lvchange   --debug  --verbose --activate y   /dev/vg1/volume_1
[sudo] Mot de passe de souillard : 
    Activating logical volume vg1/volume_1.
    activation/volume_list configuration setting not defined: Checking only host tags for vg1/volume_1.
souillard@souillard-bequiet:~$ sudo lvchange   -d  -v -ay /dev/vg1/volume_1
    Activating logical volume vg1/volume_1.
    activation/volume_list configuration setting not defined: Checking only host tags for vg1/volume_1.

Dernière modification par FreeLinux (Le 03/05/2020, à 18:49)

Hors ligne