Contenu | Rechercher | Menus

Annonce

DVD, clés USB et t-shirts Ubuntu-fr disponibles sur la boutique En Vente Libre

Si vous avez des soucis pour rester connecté, déconnectez-vous puis reconnectez-vous depuis ce lien en cochant la case
Me connecter automatiquement lors de mes prochaines visites.

À propos de l'équipe du forum.

#1 Le 26/07/2020, à 14:47

L_d_v_c@

Migration NAS SYNOLOGY DS212J de RAID1 vers RAID5

Bonjour.

Je possède un NAS SYNOLOGY DS212J depuis quelques années, et je n'ai pas les ressources financières pour en changer, voire de changer les deux disques en RAID1 pour y mettre plus gros. Actuellement ce NAS été configuré avec 2*3To + 3To USB2 pour la sauvegarde.

Voulant passer à 6To avec sécurité (RAID>0), l'opération coûtait trop cher : changer les deux disques 3To par deux disques 6To en RAID1 (coût environ 200€ en juin 2020, voire plus si adoption de disques spéciaux NAS).

Alors j'ai investi dans un seul disque USB3 de 6To pour la nouvelle sauvegarde du NAS (Seagate Expansion Desktop 6To à 118€), avec une idée en tête :

Je m'étais dit que je pourrais bidouiller un RAID5 2xSATA//USB2 sur le NAS SYNOLOGY DS212J puisque le SATA interne et l'USB2 vont à la même vitesse d'après hdparm… (le RAID5 semblerait équilibré).

Alors je me suis lancé dans des réinitialisations et la construction du RAID5 sur 3 disques (2 SATA + 1 USB2) en manuel connecté en SSH sur le NAS.

moi a écrit :

J'ai attaqué la modification du NAS 212J de RAID1 vers RAID5.

Tout le RAID1 a été transféré sur /volumeUSB2.


3 partitions équivalentes en taille et vitesse, tout est branché sur onduleur.

/dev/sda3 /dev/sdb3 SATA de vitesse 40 Mo/s.

/dev/sdq3 USB2 de vitesse 40 Mo/s. sda3 et sdb3 sont par défaut alors j'ai modifié /dev/sdq1 en /dev/sdq3 avec fdisk pour mieux me repérer.


ash-4.3# mdadm --create --verbose /dev/md2 --level=5 --raid-device=3 /dev/sd[abq]3
mdadm: layout defaults to left-symmetric
mdadm: chunk size defaults to 64K
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: size set to 2925444544K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md2 started.

Bien.

ash-4.3# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md2 : active raid5 sdq3[3] sdb3[1] sda3[0]
      5850889088 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/2] [UU_]
      [>....................]  recovery =  0.0% (2000944/2925444544) finish=1884.2min speed=25857K/sec

md1 : active raid1 sda2[0] sdb2[1]
      2097088 blocks [2/2] [UU]

md0 : active raid1 sda1[0] sdb1[1]
      2490176 blocks [2/2] [UU]

unused devices: <none>

Très bien mais le RAID5 n’apparaît pas dans les outils graphiques du NAS.

ash-4.3# mkfs.ext4 /dev/md2
mke2fs 1.42.6 (21-Sep-2012)
Filesystem label=1.42.6-25426
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=16 blocks, Stripe width=32 blocks
182841344 inodes, 1462722272 blocks
25600 blocks (0.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=0
44639 block groups
32768 blocks per group, 32768 fragments per group
4096 inodes per groupSuperblock backups stored on blocks:
    32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
    4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968,
    102400000, 214990848, 512000000, 550731776, 644972544

Allocating group tables: done
Writing inode tables: done
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done

Formatage réussi ?

Un rappel :

ash-4.3# ls /
bin    dev  etc.defaults  lib           mnt  proc  run    sys usr  var.defaults    volumeUSB1
config    etc  initrd       lost+found  opt  root  sbin    tmp var  volume1    volumeUSB2

Où en est le RAID5 ?

ash-4.3# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md2 : active raid5 sdq3[3] sdb3[1] sda3[0]
      5850889088 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/2] [UU_]
      [======>..............]  recovery = 31.6% (925454340/2925444544) finish=1549.5min speed=21510K/sec

md1 : active raid1 sda2[0] sdb2[1]
      2097088 blocks [2/2] [UU]

md0 : active raid1 sda1[0] sdb1[1]
      2490176 blocks [2/2] [UU]

unused devices: <none>

On vérifie la taille de /dev/md2 (RAID5 avec 2xSATA + 1 USB2) :

ash-4.3# ls /volume1
ash-4.3# mount /dev/md2 /volume1
ash-4.3# df -h
Filesystem      Size  Used Avail Use% Mounted on
/dev/root       2.4G  901M  1.4G  40% /
none            120M  4.0K  120M   1% /dev
/tmp            122M  772K  122M   1% /tmp
/run            122M  2.2M  120M   2% /run
/dev/shm        122M  4.0K  122M   1% /dev/shm
/dev/sdr1       5.5T  2.1T  3.4T  39% /volumeUSB2/usbshare #volumeUSB2 pour les sauvegardes.
/dev/md2        5.5T  187M  5.5T   1% /volume1            #ici c'est mon RAID5 2xSATA//USB2

Où en est /etc/fstab ?

ash-4.3# nano /etc/fstab
ash: nano: command not found
ash-4.3#  #Je pense que je dois modifier fstab en conséquences.
ash-4.3# cat /etc/fstab 
none /proc proc defaults 0 0
/dev/root / ext4 defaults 1 1
ash-4.3# 

Mais le gestionnaire de stockage ne reconnaît ni mon groupe de stockage, ni mon groupe de volume. J'espère avoir été rigoureux mais c'est ici que je vais avoir besoin d'aides !

En attendant je vais tenter de refaire un RAID1 avec les outils du Synology puis de migrer en RAID5 afin d'espérer avoir un RAID5 administrable facilement dans le système.

Merci à vous si vous pouvez me guider.
Cordialement,
L_d_v_c@

Dernière modification par L_d_v_c@ (Le 28/07/2020, à 17:13)


Bogue -1 : Derrière chaque bogue se cache constamment la faille humaine.
Les programmes conçus par méthodes formelles ne bogueront JAMAIS et ils n'auront pas besoin de mise à jour corrective, puisque tout fonctionnera comme prévu.
Abandon des GNU/Linux disharmonieux pour un bien meilleur projet : Haiku !

Hors ligne

#2 Le 27/07/2020, à 23:16

L_d_v_c@

Re : Migration NAS SYNOLOGY DS212J de RAID1 vers RAID5

Bonsoir,
si ça peut aider, voici le listing de /sbin :

ash-4.3# ls /sbin
arp	      fsck.hfsplus	 iscsiadm     mkfs	      partprobe      reboot	  sssd		   upsmon
arping	      fstrim		 iscsid       mkfs.ext3       poweroff	     reload	  sss_debuglevel   upssched
avahi-browse  getty		 iscsi-iname  mkfs.ext4       pppd	     repquota	  sss_obfuscate    vgcfgbackup
avahi-daemon  halt		 iw	      mkfs.fat	      pppoe	     resize2fs	  sss_override	   vgcfgrestore
badblocks     hwclock		 iwconfig     mkfs.msdos      pppoe-connect  restart	  sss_seed	   vgchange
blkid	      idmapd		 iwlist       mkfs.vfat       pppoe-relay    rmmod	  start		   vgcreate
blockdev      ietadm		 iwpriv       mkswap	      pppoe-start    route	  statd		   vgdisplay
bluetoothd    ietd		 kinit	      modprobe	      pppoe-status   rpcbind	  status	   vgextend
clockdiff     ifconfig		 klist	      mountd	      pppoe-stop     rpcinfo	  stop		   vgreduce
crond	      init		 losetup      mount.ecryptfs  pptp	     runlevel	  svcgssd	   vgremove
dbus-daemon   initctl		 lslocks      mount.nfs       pvcreate	     saslauthd	  swapoff	   vgs
dbus-send     insmod		 lsmod	      mount.ntfs      pvdisplay      saslpasswd2  swapon	   wpa_cli
debugfs       ip		 lvcreate     nfsd	      pvremove	     setquota	  sysctl	   wpa_passphrase
dhclient      ip6tables		 lvdisplay    nfsstat	      pvresize	     sfdisk	  tc		   wpa_supplicant
dmsetup       ip6tables-restore  lvextend     nslcd	      pvs	     showmount	  tcpdump	   xl2tpd
e2fsck	      ip6tables-save	 lvm	      ntpd	      quota	     shutdown	  telinit	   xtables-multi
eject	      ipsec		 lvremove     ntpdate	      quotacheck     slapd	  tracepath
exportfs      iptables		 lvs	      ntpdc	      quotaoff	     sm-notify	  tune2fs
fdisk	      iptables-restore	 mdadm	      ntpq	      quotaon	     sparted	  umount.ecryptfs
fsck.ext3     iptables-save	 mkdosfs      openvpn	      rarpd	     sss_cache	  unix_chkpwd
fsck.ext4     iptables-xml	 mke2fs       parted	      rdisc	     sssctl	  upsd
ash-4.3# 

En tentant d'adapter cette méthode (consistant à arrêter le RAID1 sur 2 disques, avant d'ajouter un troisième disque, la suite mdadm --grow), ça a planté ici :

ash-4.3# mdadm --stop /dev/md2
mdadm: stopped /dev/md2
ash-4.3# mdadm --manage /dev/md2 --add /dev/sdq3
mdadm: cannot get array info for /dev/md2 

Bogue -1 : Derrière chaque bogue se cache constamment la faille humaine.
Les programmes conçus par méthodes formelles ne bogueront JAMAIS et ils n'auront pas besoin de mise à jour corrective, puisque tout fonctionnera comme prévu.
Abandon des GNU/Linux disharmonieux pour un bien meilleur projet : Haiku !

Hors ligne

#3 Le 28/07/2020, à 16:49

L_d_v_c@

Re : Migration NAS SYNOLOGY DS212J de RAID1 vers RAID5

Bonjour !
J'ai bien avancé je pense, grâce à un TP de 2014 de monsieur Christian DELAIR.

Reprenons : après cette ligne j'ai fait la suite :

ash-4.3# mdadm --create --verbose /dev/md2 --level=5 --raid-device=3 /dev/sd[abq]3
ash-4.3# pvs
ash-4.3# pvscan
ash: pvscan: command not found
ash-4.3# pvdisplay
ash-4.3# pvcreate /dev/md2
WARNING: ext4 signature detected on /dev/md2 at offset 1080. Wipe it? [y/n]: y
  Wiping ext4 signature on /dev/md2.
  Physical volume "/dev/md2" successfully created
ash-4.3# pvs
  PV         VG   Fmt  Attr PSize PFree
  /dev/md2        lvm2 ---  5.45t 5.45t
ash-4.3# pvscan
ash: pvscan: command not found
ash-4.3# pvdisplay
  "/dev/md2" is a new physical volume of "5.45 TiB"
  --- NEW Physical volume ---
  PV Name               /dev/md2
  VG Name               
  PV Size               5.45 TiB
  Allocatable           NO
  PE Size               0   
  Total PE              0
  Free PE               0
  Allocated PE          0
  PV UUID               LyQG7f-UaEk-iDqS-n23r-y2Qk-ROwn-aBEbWU
   
ash-4.3# 

J'arrive à ça sur mon SYNOLOGY DS212J :
1595952023.png

1595954325.png

1595954529.png

édit : Je vais bientôt pouvoir tester la solidité de ma solution en simulant des pannes avant de remettre les données dessus.

Et pour les curieux :

ash-4.3# cat /proc/cpuinfo 
Processor	: Feroceon 88FR131 rev 1 (v5l)
BogoMIPS	: 1192.75
Features	: swp half thumb fastmult edsp 
CPU implementer	: 0x56
CPU architecture: 5TE
CPU variant	: 0x2
CPU part	: 0x131
CPU revision	: 1

Hardware	: Feroceon-KW
Revision	: 0000
Serial		: 0000000000000000
ash-4.3# 

Dernière modification par L_d_v_c@ (Le 28/07/2020, à 17:25)


Bogue -1 : Derrière chaque bogue se cache constamment la faille humaine.
Les programmes conçus par méthodes formelles ne bogueront JAMAIS et ils n'auront pas besoin de mise à jour corrective, puisque tout fonctionnera comme prévu.
Abandon des GNU/Linux disharmonieux pour un bien meilleur projet : Haiku !

Hors ligne

#4 Le 29/07/2020, à 17:10

L_d_v_c@

Re : Migration NAS SYNOLOGY DS212J de RAID1 vers RAID5

Bonjour.

Premier test : le redémarrage.

Tout est en place, le RAID5 fonctionne, on redémarre pour vérifier si la construction du RAID5 résiste au reboot. (En temps normal, il n'y a jamais de reboot sur mon NAS).

Le redémarrage du NAS se fait en mode dégradé car le disque externe /dev/sdq3 est sorti de la matrice RAID5. Le NAS bipe.

Solution pour cette fois-ci jusqu'au prochain redémarrage en ssh sur le NAS :

ash-4.3# mdadm /dev/md2 --add /dev/sdq3
mdadm: re-added /dev/sdq3
ash-4.3# cat /proc/mdstat 
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] 
md2 : active raid5 sdq3[3] sda3[0] sdb3[1]
      5850889088 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/2] [UU_]
      [>....................]  recovery =  0.0% (234224/2925444544) finish=1873.2min speed=26024K/sec
      
md1 : active raid1 sda2[0] sdb2[1]
      2097088 blocks [2/2] [UU]
      
md0 : active raid1 sda1[0] sdb1[1]
      2490176 blocks [2/2] [UU]
      
unused devices: <none>
ash-4.3# 

Le NAS ne bipe plus, le RAID5 se re-synchronise.
Les fichiers de tests sont présents, la NAS a gardé les fichiers.

J'ai cherché sans trouver dans /etc un fichier mdadm.conf ...

édit : il me manque l'équivalent de  mdadm --detail --scan --verbose > /etc/mdadm/mdadm.conf

Dernière modification par L_d_v_c@ (Le 30/07/2020, à 09:59)


Bogue -1 : Derrière chaque bogue se cache constamment la faille humaine.
Les programmes conçus par méthodes formelles ne bogueront JAMAIS et ils n'auront pas besoin de mise à jour corrective, puisque tout fonctionnera comme prévu.
Abandon des GNU/Linux disharmonieux pour un bien meilleur projet : Haiku !

Hors ligne

#5 Le 15/08/2020, à 06:19

L_d_v_c@

Re : Migration NAS SYNOLOGY DS212J de RAID1 vers RAID5

Bonjour.
En attendant, mon SYNOLOGY DS212J fonctionne avec les 3 disques durs en RAID 5.
Si jamais je dois l'éteindre puis le rallumer, il ne redémarre qu'avec 2 disques sur 3 alors je passe manuellement en SSH :

sudo mdadm /dev/md2 --add /dev/sdq3

Puis TOUT fonctionne correctement.

Dernière modification par L_d_v_c@ (Le 15/08/2020, à 06:21)


Bogue -1 : Derrière chaque bogue se cache constamment la faille humaine.
Les programmes conçus par méthodes formelles ne bogueront JAMAIS et ils n'auront pas besoin de mise à jour corrective, puisque tout fonctionnera comme prévu.
Abandon des GNU/Linux disharmonieux pour un bien meilleur projet : Haiku !

Hors ligne