#1 Le 09/01/2021, à 00:57
- samprzyswa
Créer un RAID-1 sur installation LVM
Bonjour,
J'ai une version 20.04 LTS installée sur un volume logique LVM et je voudrais créer un RAID-1 pour sécuriser le système qui est par ailleurs backupé en externe, quelle est la meilleure procédure et les tutos qui vont bien ?
Merci d'avance pour vos lumières.
Sam.
Dernière modification par samprzyswa (Le 09/01/2021, à 00:57)
Système: Ubuntu 20.04.4
Carte mère MSI B560 PRO-VDH | Carte graphique Radeon HD 7450
Intel(R) Core(TM) i3-10105F CPU @ 3.70GHz
Linux RAID1 2X1Tb
Hors ligne
#2 Le 09/01/2021, à 13:05
- geole
Re : Créer un RAID-1 sur installation LVM
Bonjour
Le seul document que je connaisse est le suivant https://doc.ubuntu-fr.org/raid_logiciel
La partie LVM est abordée au paragraphe 7.1
Je vais développer un peu en fonction de ce que je connais
Comme tu es déjà en LVM, tu disposes d'au moins deux disques
Tu as probablement une partition de boot
Lorsque tu vas basculer en RAID, tu vas tout casser, donc sauve tes données ailleurs avant de commencer l'opération
Il n'est pas évident de booter en RAIDS, je suggère une partition de boot hors RAIDS
Voici un principe de création RAID1 avec deux disques de taille quasiment équivalente
Sur chacun des disques, créer une petite partition de boot de taille de 2 Mo (SDA1 et SDB1)
Sur le plus petit disque, créer une partition sdX2 avec tout l'espace disponible
Sur l'autre disque, créer une partition sdX2 de taille identique à la précédente puis créer une partition sdX3 avec le reste de l'espace disponible.
Procéder à la création du rais MD0 avec les partitions SdX2
Il n'y a pas lieu de fabriquer du LVM
NOTA. A part pour une exploitation non-stop, je ne vois pas l'intérêt de mettre le logiciel en RAID!!! Mettre seulement les données
Voici un principe de création RAID1 avec quatre disques de taille totalement différente sda de 1 To, sdb de 2 To, sdc de 3 To et sdd de 4 To
Si avec le lvm, il n'y a aucun problème pour faire un support physique avec ces 4 disques, c'est plus compliqué avec le RAID
Sur chacun des disques, créer une petite partition de boot de taille de 2 Mo (sda1, sdb1, sdc1 et sdd1)
Sur les disques sda et sdb, créer une partition de la taille maxima disponible de sda (1To?) (sda2 et sdb2)
sur les disques sdc et sdd, créer une partition de la taille maxima disponible de sdc (3To?) (sdc2 et sdd2)
sur les disques sdb et sdd, créer une partition de la taille maxima disponible de sdb (1To?) (sdb3 et sdd3)
Pour le disque sdd qui ont encore encore un peu qui à encore un peu de place, créer la partition sdd4 avec le reste de l'espace
.
Procéder à la création du raids md0 avec les partitions sda2 et sdb2 (1To)
Procéder à la création du raids md1 avec les partitions sdc2 et sdd2 (3To)
Procéder à la création du raids md2 avec les partitions sdb2 et sdd3 (1To)
fabriquer du LVM em créant d'abord le vgcreate avec md0 md1 et md2
Dernière modification par geole (Le 09/01/2021, à 13:07)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
En ligne
#3 Le 09/01/2021, à 14:22
- samprzyswa
Re : Créer un RAID-1 sur installation LVM
Merci Geole de ta très pertinente réponse, je pensais pouvoir passer en RAID1 sans tout casser, donc du coup la procédure se complique il va falloir que je jongle avec les deux disques pour d'abord sauver les données et le système sur le nouveau disque pour redéfinir les partitions comme RAID et retransférer le tout sur le premier disque, actuellement j'ai une partition séparée /boot
Bienvenue dans fdisk (util-linux 2.34).
Les modifications resteront en mémoire jusqu'à écriture.
Soyez prudent avant d'utiliser la commande d'écriture.
Commande (m pour l'aide) : p
Disque /dev/sda : 931,53 GiB, 1000204886016 octets, 1953525168 secteurs
Disk model: ST1000DM010-2EP1
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : dos
Identifiant de disque : 0xa209e489
Périphérique Amorçage Début Fin Secteurs Taille Id Type
/dev/sda1 * 2048 999423 997376 487M 83 Linux
/dev/sda2 1001470 1953523711 1952522242 931G 5 Étendue
/dev/sda5 1001472 1953523711 1952522240 931G 8e LVM Linux
La partition 2 ne commence pas sur une frontière de cylindre physique.
Dans ce cas j'ai presque envie de supprimer le LVM vue que je ne compte pas étendre la capacité disque, qu'en penses-tu ?
Sam.
Système: Ubuntu 20.04.4
Carte mère MSI B560 PRO-VDH | Carte graphique Radeon HD 7450
Intel(R) Core(TM) i3-10105F CPU @ 3.70GHz
Linux RAID1 2X1Tb
Hors ligne
#4 Le 09/01/2021, à 15:49
- geole
Re : Créer un RAID-1 sur installation LVM
je ne connais pas le taux de remplissage de ton LVM mais s'il dépasse 50%, cela ne va pas tenir car le RAID1 divise par deux la capacité.
Il est préférable que tu sauvegardes car tu n'es pas à l'abri d'une erreur de manipulation ni d'un mauvais conseil.
Maintenant, si tu maîtrises bien le LVM, tu dois être capable de le rétrécir suffisamment pour libérer totalement un disque.
Voir paragraphe 7.4 de https://doc.ubuntu-fr.org/lvm
Lorsque l'un des disques est totalement libéré, tu peux faire le RAID1 avec une seule partition présente et en déclarant la seconde partition missing
Lorsque c'est fait, il faut recopier les répertoires et fichiers du LVM, dans le RAID1. lorsque c'est fait, on ajoute la seconde partition en utilisant celle du LVM devenue inutile.
Si tu penses que tu n'auras qu'un seul RAID1, il est inutile d'y mettre une couche LVM, mais si tu penses ajouter un autre RAID1 plus tard, autant préparer à l'installation la structure LVM
Dernière modification par geole (Le 09/01/2021, à 15:50)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
En ligne
#5 Le 09/01/2021, à 18:20
- samprzyswa
Re : Créer un RAID-1 sur installation LVM
je ne connais pas le taux de remplissage de ton LVM mais s'il dépasse 50%, cela ne va pas tenir car le RAID1 divise par deux la capacité.
Il est préférable que tu sauvegardes car tu n'es pas à l'abri d'une erreur de manipulation ni d'un mauvais conseil.
Maintenant, si tu maîtrises bien le LVM, tu dois être capable de le rétrécir suffisamment pour libérer totalement un disque.
Voir paragraphe 7.4 de https://doc.ubuntu-fr.org/lvmLorsque l'un des disques est totalement libéré, tu peux faire le RAID1 avec une seule partition présente et en déclarant la seconde partition missing
Lorsque c'est fait, il faut recopier les répertoires et fichiers du LVM, dans le RAID1. lorsque c'est fait, on ajoute la seconde partition en utilisant celle du LVM devenue inutile.Si tu penses que tu n'auras qu'un seul RAID1, il est inutile d'y mettre une couche LVM, mais si tu penses ajouter un autre RAID1 plus tard, autant préparer à l'installation la structure LVM
Actuellement mon volume logique à 75% de place disponible, mais j'ai acheté un deuxième disque de même taille que le premier, j'ai envie de faire une copie du partitionnement de mon disque sur le nouveau pour conserver la partition /boot et swap et casser le LVM sur le nouveau disque pour la passer en ext4 et copier les datas et système du disque actuel sur le nouveau avec rsync et ensuite casser la config LVM sur le disque actuel, le définir en ext4 RAID1 faire la copie inverse et créer le RAID1, qu'en penses-tu ? sachant que je viens de faire une clé boutable Ubuntu persistant pour faire les manipulations.
Sam.
Système: Ubuntu 20.04.4
Carte mère MSI B560 PRO-VDH | Carte graphique Radeon HD 7450
Intel(R) Core(TM) i3-10105F CPU @ 3.70GHz
Linux RAID1 2X1Tb
Hors ligne
#6 Le 09/01/2021, à 18:55
- MicP
Re : Créer un RAID-1 sur installation LVM
Bonjour
Voir aussi, une autre façon de faire : RAID intégré à LVM
linux.org -> gestion de volumes raid avec lvm
man lvmraid
Dernière modification par MicP (Le 09/01/2021, à 18:58)
Hors ligne
#7 Le 09/01/2021, à 19:04
- geole
Re : Créer un RAID-1 sur installation LVM
Puisque tu n'as qu'un seul disque.
Lorsque tu auras branché le second disque (SDB), lance gparted
fabrique une table de partition msdos et copie avec la commande dd les 446 premiers caractères de SDA dans SDB
Fais un copier/coller de la partition SDA1 dans l'espace libre du disque SDB.
Je ne vois pas trop l'intérêt d'une partition swap si ubuntu d'hiberne pas. Mais tu peux quand même la fabriquer. Cependant il est peut-être plus simple de revenir à un fichier de swap.
Je ne sais pas si tu as une partition pour l'O.S., une partition pour le /home et une autre pour les données,, Je part du principe que tu en as une seule.
Fabrique une partition SDB2 avec l'espace restant, son type de partition ext4
Installe le logiciel MDADM et fabrique immédiatement le RAIDS
sudo mdadm --create /dev/md0 --assume-clean --level=1 --raid-devices=2 missing /dev/sdb2
sudo mdadm --daemonise /dev/md0
sudo mkfs.ext4 /dev/md0
Pour la suite c'est sous toute réserve et rapidement décrit
1) Booter avec un support live-USB
2) Installer les logiciels LVM et MADADM
3) Faire des points de montage et monter les partitions
4) Lancer la commande RSYNC
5) Aller dans le fichier /etc/fstab du raid et modifier les points de montage.
6) Quitter le live USB
7) Modifier le bios pour booter sur SDB
8) Vérifier qu'on a bien booté avec le raids.
9) Supprimer SDA5 SDA2 etrefabriquer une partition EXT4 avec l'espace libre
10) Ajouter la partition
sudo mdadm --manage /dev/md0 --add /dev/sda2
11) Surveiller la synchronisation
sudo mdadm --detail /dev/md0 | grep sync
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
En ligne
#8 Le 09/01/2021, à 19:05
- samprzyswa
Re : Créer un RAID-1 sur installation LVM
Bonjour
Voir aussi, une autre façon de faire : RAID intégré à LVM
linux.org -> gestion de volumes raid avec lvmman lvmraid
Ok j'ai également vu cette option mais est-ce que je peux migrer ma configuration existante en LVM-RAID1 sans perdre les données et mon système sachant que le répertoire /boot est sur une partition à part en ext4 ?
Sam.
Système: Ubuntu 20.04.4
Carte mère MSI B560 PRO-VDH | Carte graphique Radeon HD 7450
Intel(R) Core(TM) i3-10105F CPU @ 3.70GHz
Linux RAID1 2X1Tb
Hors ligne
#9 Le 09/01/2021, à 19:27
- MicP
Re : Créer un RAID-1 sur installation LVM
Je n'ai pas encore testé le RAID intégré à LVM ,
mais de toutes façons, à part pour s'amuser à tester,
je ne prendrai jamais le risque de faire une opération de ce genre
sans avoir, au préalable, mis de côté une sauvegarde et bien sûr, testé sa restauration.
Dernière modification par MicP (Le 09/01/2021, à 19:29)
Hors ligne
#10 Le 09/01/2021, à 21:20
- samprzyswa
Re : Créer un RAID-1 sur installation LVM
Je n'ai pas encore testé le RAID intégré à LVM ,
mais de toutes façons, à part pour s'amuser à tester,
je ne prendrai jamais le risque de faire une opération de ce genre
sans avoir, au préalable, mis de côté une sauvegarde et bien sûr, testé sa restauration.
Ouais, je vais piocher un peu le sujet et poster un message ici pour voir si quelqu’un a de l'expérience sur le sujet...
Merci de ton aide.
Sam.
Système: Ubuntu 20.04.4
Carte mère MSI B560 PRO-VDH | Carte graphique Radeon HD 7450
Intel(R) Core(TM) i3-10105F CPU @ 3.70GHz
Linux RAID1 2X1Tb
Hors ligne
#11 Le 10/01/2021, à 10:14
- MicP
Re : Créer un RAID-1 sur installation LVM
Bonjour
Hors ligne
#12 Le 10/01/2021, à 13:15
- geole
Re : Créer un RAID-1 sur installation LVM
Bonjour
Voir aussi, une autre façon de faire : RAID intégré à LVM
linux.org -> gestion de volumes raid avec lvmman lvmraid
Bonjour.
J'ai ajouté le lien dans la documentation
et fais un rapide test de création.
sudo vgcreate MONmvg /dev/sdc12 /dev/sdb3
WARNING: ext4 signature detected on /dev/sdc12 at offset 1080. Wipe it? [y/n]: y
Wiping ext4 signature on /dev/sdc12.
WARNING: ext4 signature detected on /dev/sdb3 at offset 1080. Wipe it? [y/n]: y
Wiping ext4 signature on /dev/sdb3.
Physical volume "/dev/sdc12" successfully created.
Physical volume "/dev/sdb3" successfully created.
Volume group "MONmvg" successfully created
sudo vgdisplayMONmvg
sudo lvcreate --size 1G --name LVMroot --type raid0 --nosync MONmvg
Using default stripesize 64,00 KiB.
Logical volume "LVMroot" created.
sudo lvcreate --size 2333M --name LVMhome --type raid1 MONmvg
Rounding up size to full physical extent 2,28 GiB
Logical volume "LVMhome" created.
sudo lvdisplay
--- Logical volume ---
LV Path /dev/MONmvg/LVMroot
LV Name LVMroot
VG Name MONmvg
LV UUID qMbpNr-e2F5-aLnb-kDN4-xRXc-A3OS-hA51t9
LV Write Access read/write
LV Creation host, time b, 2021-01-10 12:50:40 +0100
LV Status available
# open 0
LV Size 1,00 GiB
Current LE 256
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 512
Block device 253:2
--- Logical volume ---
LV Path /dev/MONmvg/LVMhome
LV Name LVMhome
VG Name MONmvg
LV UUID 5PAelq-fl5k-xDiW-mRkB-Se42-9fIT-TMlI46
LV Write Access read/write
LV Creation host, time b, 2021-01-10 12:50:45 +0100
LV Status available
# open 0
LV Size 2,28 GiB
Current LE 584
Mirrored volumes 2
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 253:7
sudo mkfs -t ext4 /dev/MONmvg/LVMroot
sudo mkfs -t ext4 /dev/MONmvg/LVMhome
sudo mkdir /media/LVMroot /media/LVMhome
sudo mount /dev/MONmvg/LVMroot /media/LVMroot
sudo mount /dev/MONmvg/LVMhome /media/LVMhome
sudo cp -Rv /media/NosDonnees/Football /media/LVMroot
sudo cp -Rv /media/NosDonnees/Football /media/LVMhome
df -h | grep mapper
/dev/mapper/MONmvg-LVMroot 976M 960M 0 100% /media/LVMroot
/dev/mapper/MONmvg-LVMhome 2,2G 2,2G 0 100% /media/LVMhome
Il me reste à détruire une partition et vérifier que lvm en RAID1 reste opérationnel
ls -ls /media/LVMroot/Football
total 980368
0 -rwxr-xr-x 1 root root 0 janv. 10 13:06 'France-allemage Main.avi'
0 -rwxr-xr-x 1 root root 0 janv. 10 13:06 'France - Allemagne 1e mi-temps.avi'
0 -rwxr-xr-x 1 root root 0 janv. 10 13:06 'France - Allemagne 2e mi-temps.avi'
980368 -rwxr-xr-x 1 root root 1003892736 janv. 10 13:06 'France - Irlande.avi'
ls -ls /media/LVMhome/Football
total 2265540
6900 -rwxr-xr-x 1 root root 7063954 janv. 10 13:07 'France-allemage Main.avi'
555084 -rwxr-xr-x 1 root root 568400050 janv. 10 13:07 'France - Allemagne 1e mi-temps.avi'
540912 -rwxr-xr-x 1 root root 553889792 janv. 10 13:08 'France - Allemagne 2e mi-temps.avi'
1162644 -rwxr-xr-x 1 root root 1190539824 janv. 10 13:07 'France - Irlande.avi'
sudo umount /dev/MONmvg/LVMroot
sudo umount /dev/MONmvg/LVMhome
a@b:~$ sudo dd if=/dev/zero of=/dev/sdb3
dd: écriture vers '/dev/sdb3': Aucun espace disponible sur le périphérique
8388609+0 enregistrements lus
8388608+0 enregistrements écrits
4294967296 octets (4,3 GB, 4,0 GiB) copiés, 215,759 s, 19,9 MB/s
sudo mount /dev/MONmvg/LVMroot /media/LVMroot
mount: /media/LVMroot: wrong fs type, bad option, bad superblock on /dev/mapper/MONmvg-LVMroot, missing codepage or helper program, or other error.
sudo mount /dev/MONmvg/LVMhome /media/LVMhome
mount: /media/LVMhome: wrong fs type, bad option, bad superblock on /dev/mapper/MONmvg-LVMhome, missing codepage or helper program, or other error.
sudo fsck -v /dev/MONmvg/LVMroot
[sudo] Mot de passe de a :
fsck de util-linux 2.34
e2fsck 1.45.5 (07-Jan-2020)
le superbloc a un journal invalide (i-noeud 8).
Effacer<o>? oui
*** journal has been deleted ***
L'i-noeud de changement de taille n'est pas valide. Recréer<o>? oui
Passe 1 : vérification des i-noeuds, des blocs et des tailles
l'i-noeud racine n'est pas un répertoire. Effacer<o>? oui
Passe 2 : vérification de la structure des répertoires
Passe 3 : vérification de la connectivité des répertoires
L'i-noeud racine n'est pas alloué. Allouer<o>? oui
/lost+found n'a pas été trouvé. Créer<o>? oui
Passe 4 : vérification des compteurs de référence
Passe 5 : vérification de l'information du sommaire de groupe
différences de bitmap de blocs : -(4244--4247) -(4256--31008) -(32911--33008) -(34816--98303) -(98433--163839) -(163969--165379) -(165888--229375) -(229505--262143)
Corriger<o>? oui
Le décompte des blocs libres est erroné pour le groupe n°0 (1765, décompté=28524).
Corriger<o>? oui
Le décompte des blocs libres est erroné pour le groupe n°1 (1821, décompté=32639).
Corriger<o>? oui
Le décompte des blocs libres est erroné pour le groupe n°2 (0, décompté=32768).
Corriger<o>? oui
Le décompte des blocs libres est erroné pour le groupe n°3 (0, décompté=32639).
Corriger ('t' active 'oui' pour tout) <o>? oui
Le décompte des blocs libres est erroné pour le groupe n°4 (0, décompté=32768).
Corriger ('t' active 'oui' pour tout) <o>? oui
Le décompte des blocs libres est erroné pour le groupe n°5 (508, décompté=32639).
Corriger ('t' active 'oui' pour tout) <o>? oui
Le décompte des blocs libres est erroné pour le groupe n°6 (0, décompté=32768).
Corriger ('t' active 'oui' pour tout) <o>? oui
Le décompte des blocs libres est erroné pour le groupe n°7 (0, décompté=32639).
Corriger<o>? oui
Le décompte des blocs libres est erroné (4094, décompté=257384).
Corriger<o>? oui
différences de bitmap d'i-noeuds : -(12--16)
Corriger<o>? oui
Le décompte des i-noeuds libres est erroné pour le groupe n°0 (8175, décompté=8181).
Corriger<o>? oui
Le décompte des répertoires est erroné pour le groupe n°0 (4, décompté=2).
Corriger<o>? oui
Le décompte des i-noeuds libres est erroné (65519, décompté=65525).
Corriger<o>? oui
Recréer le journal<o>? oui
Création du journal (8192 blocs) : Complété.
*** le journal a été regénéré ***
/dev/mapper/MONmvg-LVMroot: ***** LE SYSTÈME DE FICHIERS A ÉTÉ MODIFIÉ *****
11 i-noeuds utilisés (0.02%, sur 65536)
0 fichier non contigu (0.0%)
0 répertoire non contigu (0.0%)
nombre d'i-noeuds avec des blocs ind/dind/tind : 0/0/0
12952 blocs utilisés (4.94%, sur 262144)
0 bloc défectueux
0 fichier de grande taille
0 fichier normal
0 répertoire
0 fichier de périphérique en mode caractère
0 fichier de périphérique en mode bloc
0 fifo
1 lien
0 lien symbolique (0 lien symbolique rapide)
0 socket
------------
1 fichier
sudo fsck -v /dev/MONmvg/LVMhome
fsck de util-linux 2.34
e2fsck 1.45.5 (07-Jan-2020)
/dev/mapper/MONmvg-LVMhome contient un système de fichiers comportant des erreurs, vérification forcée.
Passe 1 : vérification des i-noeuds, des blocs et des tailles
L'i-noeud 13 a un noeud d'extent invalide (blk 33061, lblk 0)
Effacer<o>? oui
L'arbre d'extent de l'i-noeud 13 (au niveau 1) pourrait être plus court. Optimiser<o>? oui
I-noeud 13, i_blocs est 2325288, devrait être 0. Corriger<o>? oui
Passe 1E : Optimisation des arbres d'extent
Passe 2 : vérification de la structure des répertoires
I-noeud de répertoire 2, bloc n°0, déplacement 0 : le répertoire n'a pas de somme de contrôle.
Corriger<o>? oui
I-noeud de répertoire 2, bloc n°0, déplacement 0 : répertoire corrompu
Récupérer<o>? oui
« . » manquant dans l'i-noeud de répertoire 2.
Corriger<o>? oui
Définition du type de fichier pour l'entrée « . » dans ??? (2) à 2.
« .. » manquant dans l'i-noeud de répertoire 2.
Corriger<o>? oui
Définition du type de fichier pour l'entrée « .. » dans ??? (2) à 2.
Passe 3 : vérification de la connectivité des répertoires
« .. » dans / (2) est <L'i-noeud NUL> (0), devrait être / (2).
Corriger<o>? oui
I-noeud 11 (/???) de répertoire non connecté
Connecter à /lost+found<o>? oui
/lost+found n'a pas été trouvé. Créer ('t' active 'oui' pour tout) <o>? oui
I-noeud 12 (/???) de répertoire non connecté
Connecter à /lost+found ('t' active 'oui' pour tout) <o>? oui
Passe 3A : optimisation des répertoires
Passe 4 : vérification des compteurs de référence
le compteur de référence de l'i-noeud 11 est 3, devrait être 2. Corriger ('t' active 'oui' pour tout) <o>? oui
le compteur de référence de l'i-noeud 12 est 3, devrait être 2. Corriger ('t' active 'oui' pour tout) <o>? oui
Passe 5 : vérification de l'information du sommaire de groupe
différences de bitmap de blocs : -(34816--98303) -(100352--163839) -(165888--229375) -(231424--262143) -(278528--294911) -(296960--325631) -(337920--350207) -(362496--374627)
Corriger<o>? oui
Le décompte des blocs libres est erroné pour le groupe n°1 (1739, décompté=32460).
Corriger<o>? oui
Le décompte des blocs libres est erroné pour le groupe n°2 (0, décompté=32768).
Corriger<o>? oui
Le décompte des blocs libres est erroné pour le groupe n°3 (30, décompté=30750).
Corriger<o>? oui
Le décompte des blocs libres est erroné pour le groupe n°4 (0, décompté=32768).
Corriger<o>? oui
Le décompte des blocs libres est erroné pour le groupe n°5 (0, décompté=30720).
Corriger<o>? oui
Le décompte des blocs libres est erroné pour le groupe n°6 (0, décompté=32768).
Corriger<o>? oui
Le décompte des blocs libres est erroné pour le groupe n°7 (379, décompté=31099).
Corriger<o>? oui
Le décompte des blocs libres est erroné pour le groupe n°8 (0, décompté=16384).
Corriger<o>? oui
Le décompte des blocs libres est erroné pour le groupe n°9 (731, décompté=29403).
Corriger<o>? oui
Le décompte des blocs libres est erroné pour le groupe n°10 (0, décompté=12288).
Corriger<o>? oui
Le décompte des blocs libres est erroné pour le groupe n°11 (156, décompté=12288).
Corriger<o>? oui
Le décompte des blocs libres est erroné (4098, décompté=294759).
Corriger<o>? oui
o
/dev/mapper/MONmvg-LVMhome: ***** LE SYSTÈME DE FICHIERS A ÉTÉ MODIFIÉ *****
17 i-noeuds utilisés (0.01%, sur 149568)
0 fichier non contigu (0.0%)
0 répertoire non contigu (0.0%)
nombre d'i-noeuds avec des blocs ind/dind/tind : 0/0/0
Histogramme des profondeurs d'extents : 5/3
303257 blocs utilisés (50.71%, sur 598016)
0 bloc défectueux
1 fichier de grande taille
4 fichiers normaux
3 répertoires
0 fichier de périphérique en mode caractère
0 fichier de périphérique en mode bloc
0 fifo
4294967294 liens
0 lien symbolique (0 lien symbolique rapide)
0 socket
------------
5 fichiers
sudo mount /dev/MONmvg/LVMroot /media/LVMroot
sudo mount /dev/MONmvg/LVMhome /media/LVMhome
ls -ls /media/LVMroot/Football
ls: impossible d'accéder à '/media/LVMroot/Football': Aucun fichier ou dossier de ce type
ls -ls /media/LVMhome/Football
ls: impossible d'accéder à '/media/LVMhome/Football': Aucun fichier ou dossier de ce type
Ce n'est une surprise pour le premier monté en RAID0. Mais cela en est une pour le second monté en RAID1.
Il est possible qu'en répondant autrement aux commandes de FSCK le résultat aurait été différant, Mais c'est le seul type de réponse que je sais faire "accepter la proposition de correction automatique".
Mais tout n'est pas perdu pour autant!!!!
sudo ls -als "/media/LVMroot/lost+found"
total 8
4 drwx------ 2 root root 4096 janv. 10 13:43 .
4 drwxr-xr-x 3 root root 4096 janv. 10 13:43 ..
sudo ls -als "/media/LVMhome/lost+found"
total 16
4 drwx------ 4 root root 4096 janv. 10 13:46 .
4 drwxr-xr-x 3 root root 4096 janv. 10 13:06 ..
4 drwx------ 2 root root 4096 janv. 10 13:01 '#11'
4 drwxr-xr-x 2 root root 4096 janv. 10 13:07 '#12'
sudo ls -als "/media/LVMhome/lost+found/#11"
total 8
4 drwx------ 2 root root 4096 janv. 10 13:01 .
4 drwx------ 4 root root 4096 janv. 10 13:46 ..
sudo ls -als "/media/LVMhome/lost+found/#12"
total 1102904
4 drwxr-xr-x 2 root root 4096 janv. 10 13:07 .
4 drwx------ 4 root root 4096 janv. 10 13:46 ..
6900 -rwxr-xr-x 1 root root 7063954 janv. 10 13:07 'France-allemage Main.avi'
555084 -rwxr-xr-x 1 root root 568400050 janv. 10 13:07 'France - Allemagne 1e mi-temps.avi'
540912 -rwxr-xr-x 1 root root 553889792 janv. 10 13:08 'France - Allemagne 2e mi-temps.avi'
0 -rwxr-xr-x 1 root root 1190539824 janv. 10 13:07 'France - Irlande.avi'
Dernière modification par geole (Le 10/01/2021, à 14:04)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
En ligne
#13 Le 10/01/2021, à 14:13
- samprzyswa
Re : Créer un RAID-1 sur installation LVM
Bonjour
Oui en fait c'est vers cette solution que je vais me tourner et remettre le répertoire /boot dans le LVM RAID1 puisque GRUB sait lire du LVM. Je vais bien étudier la procédure car elle est un peu différente du Linux RAID standard que j'avais utilisé il y a quelques années. Je n'ai pas encore bien maîtrisé comment on construit et défini le deuxième disque pour le monter/démonter comme l'on faisait avant avec la procédure --add et qui se fait là avec l'option -m1 et -m0 apparemment.
En tout cas merci à tous les deux pour votre aide !
Sam.
Système: Ubuntu 20.04.4
Carte mère MSI B560 PRO-VDH | Carte graphique Radeon HD 7450
Intel(R) Core(TM) i3-10105F CPU @ 3.70GHz
Linux RAID1 2X1Tb
Hors ligne
#14 Le 10/01/2021, à 15:41
- MicP
Re : Créer un RAID-1 sur installation LVM
Fais des tests avec une machine virtuelle,
comme ça, tu pourras tester tes lignes de commande rapidement et sans prendre aucun risque.
Hors ligne
#15 Le 10/01/2021, à 17:39
- samprzyswa
Re : Créer un RAID-1 sur installation LVM
Fais des tests avec une machine virtuelle,
comme ça, tu pourras tester tes lignes de commande rapidement et sans prendre aucun risque.
Comment émuler un flie-system dans une machine virtuelle, jamais fait !
Sam.
Système: Ubuntu 20.04.4
Carte mère MSI B560 PRO-VDH | Carte graphique Radeon HD 7450
Intel(R) Core(TM) i3-10105F CPU @ 3.70GHz
Linux RAID1 2X1Tb
Hors ligne
#16 Le 10/01/2021, à 18:16
- MicP
Re : Créer un RAID-1 sur installation LVM
J'utilise virt-manager pour créer et gérer mes machines virtuelles.
Sous Ubuntu ou/et Debian, l'installation de ce paquetage configurera automatiquement les interfaces réseau nécessaires
de façon à ce que les machines virtuelles puissent avoir accès au réseau auquel la machine hôte a accès.
Un disque pour une machine virtuelle, est en fait un simple fichier sur la machine hôte,
et il suffit d'avoir le fichier image ISO d'installation d'Ubuntu, debian, Windows, etc..
pour que la machine virtuelle puisse le voir comme un CD, DVD ou/et clef USB
et démarrer l'installation d'un système ubuntu, debian, windows, ou autre sur la machine virtuelle à créer.
Voilà une capture de mon écran montrant deux de mes machines virtuelles debian (Xfce Gnome dedian)
qui sont en train de fonctionner pendant que je rédige ce message avec Firefox sur ma machine hôte (Xubuntu)
Je n'ai pas trop cherché, j'ai pris le premier lien trouvé
dans lequel on montre comment créer une machine virtuelle avec virt-manager.
https://doc.fedora-fr.org/wiki/Virtuali … _en_images
C'est sous Fedora, mais c'est exactement pareil sous ubuntu, debian, redhat, etc...
Dernière modification par MicP (Le 10/01/2021, à 18:22)
Hors ligne
#17 Le 10/01/2021, à 18:52
- samprzyswa
Re : Créer un RAID-1 sur installation LVM
Merci MicP pour le tuyau virt-manager je ne connaissais pas !
Sam.
Système: Ubuntu 20.04.4
Carte mère MSI B560 PRO-VDH | Carte graphique Radeon HD 7450
Intel(R) Core(TM) i3-10105F CPU @ 3.70GHz
Linux RAID1 2X1Tb
Hors ligne
#18 Le 12/01/2021, à 00:23
- samprzyswa
Re : Créer un RAID-1 sur installation LVM
Bonjour
Ça y est j'y suis arrivé avec cette solution donc je suis resté en LVM et en RAID1 en suivant ce tuto très détaillé le tuto de Prado avec la gestion de GRUB2 et tout !
Je ne te cache pas que j'ai un peu galérer j'ai même cru un moment avec perdu tout le système et les données après le transfert d'un disque sur l'autre, je peux te dire que Ubuntu 20.04 est super robuste car il est arrivé à booter sur le nouveau disque, par contre IL FAUT SUIVRE SCRUPULEUSEMENT la chronologie des opérations !
Voilà merci en tout cas de vos aides et conseils qui m'ont permis de faire le bon choix.
Sam.
Système: Ubuntu 20.04.4
Carte mère MSI B560 PRO-VDH | Carte graphique Radeon HD 7450
Intel(R) Core(TM) i3-10105F CPU @ 3.70GHz
Linux RAID1 2X1Tb
Hors ligne
#19 Le 12/01/2021, à 10:40
- geole
Re : Créer un RAID-1 sur installation LVM
Bonjour,
Tu as pris la solution lvm à l'intérieur du raids. Cela va te servir lors de l'installation des deux autres disques raids
pourrais-tu faire un bootinfo afin permettre de visualiser le résultat. https://doc.ubuntu-fr.org/tutoriel/boot-info
Dernière modification par geole (Le 12/01/2021, à 10:43)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
En ligne
#20 Le 12/01/2021, à 13:00
- MicP
Re : Créer un RAID-1 sur installation LVM
Bonjour
…Tu as pris la solution lvm à l'intérieur du raids. …
Non, il a fait l'inverse : il a créé un RAID de type 1 dans lequel il a intégré le système LVM :
… en suivant ce tuto très détaillé le tuto de Prado …
Mais vous le verrez dans le retour du boot-info …
Dernière modification par MicP (Le 12/01/2021, à 13:03)
Hors ligne
#21 Le 12/01/2021, à 13:13
- geole
Re : Créer un RAID-1 sur installation LVM
C'est ce que j'ai dit. d'où l'intérêt du boot-info
Dernière modification par geole (Le 12/01/2021, à 13:13)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
En ligne
#22 Le 12/01/2021, à 14:10
- samprzyswa
Re : Créer un RAID-1 sur installation LVM
Bonjour,
Tu as pris la solution lvm à l'intérieur du raids. Cela va te servir lors de l'installation des deux autres disques raids
pourrais-tu faire un bootinfo afin permettre de visualiser le résultat. https://doc.ubuntu-fr.org/tutoriel/boot-info
Voilà le résultat du boot-info : https://paste.ubuntu.com/p/msm5SzZCDs/
Verdict ?
Sam.
Système: Ubuntu 20.04.4
Carte mère MSI B560 PRO-VDH | Carte graphique Radeon HD 7450
Intel(R) Core(TM) i3-10105F CPU @ 3.70GHz
Linux RAID1 2X1Tb
Hors ligne
#23 Le 12/01/2021, à 14:13
- geole
Re : Créer un RAID-1 sur installation LVM
Le copier/coller du boot-info afin qu'i reste disponible
boot-info-4ppa125 [20210112_1356]
============================== Boot Info Summary ===============================
=> Grub2 (v2.00) is installed in the MBR of /dev/sda and looks at sector 1 of
the same hard drive for core.img. core.img is at this location and looks
for (,msdos1)/grub. It also embeds following components:
modules
---------------------------------------------------------------------------
fshelp ext2 part_msdos biosdisk
---------------------------------------------------------------------------
=> No boot loader is installed in the MBR of /dev/sdb.
sda1: __________________________________________________________________________
File system: ext2
Boot sector type: -
Boot sector info:
Operating System:
Boot files: /grub/grub.cfg /grub/i386-pc/core.img
sda2: __________________________________________________________________________
File system: Extended Partition
Boot sector type: -
Boot sector info:
sda5: __________________________________________________________________________
File system: linux_raid_member
Boot sector type: -
Boot sector info:
sdb1: __________________________________________________________________________
File system:
Boot sector type: -
Boot sector info:
sdb2: __________________________________________________________________________
File system: Extended Partition
Boot sector type: -
Boot sector info:
sdb5: __________________________________________________________________________
File system: linux_raid_member
Boot sector type: -
Boot sector info:
md/jupiter.arial-concept.com:0: ________________________________________________
File system: LVM2_member
Boot sector type: -
Boot sector info:
================================ 1 OS detected =================================
OS#1: L'OS actuellement utilisé - Ubuntu 20.04.1 LTS CurrentSession on mapper/ubuntu--vg-root
============================ Architecture/Host Info ============================
CPU architecture: 64-bit
BOOT_IMAGE of the installed session in use:
/vmlinuz-5.4.0-60-generic root=/dev/mapper/ubuntu--vg-root ro persistent quiet splash
===================================== UEFI =====================================
This installed-session is not in EFI-mode.
EFI in dmesg.
[ 0.007507] ACPI: UEFI 0x00000000CA6DB3A0 000042 (v01 ALASKA A M I 00000002 01000013)
============================= Drive/Partition Info =============================
Disks info: ____________________________________________________________________
sda : notGPT, no-BIOSboot, has-noESP, not-usb, not-mmc, has-os, 2048 sectors * 512 bytes
sdb : notGPT, no-BIOSboot, has-noESP, not-usb, not-mmc, no-os, 2048 sectors * 512 bytes
Partitions info (1/3): _________________________________________________________
mapper/ubuntu--vg-root : is-os, 64, apt-get, grub-pc , grub2, grub-install, grubenv-ok, update-grub, not-far
sda1 : no-os, 32, nopakmgr, no-docgrub, nogrub, nogrubinstall, grubenv-ok, noupdategrub, not-far
sdb1 : no-os, 32, nopakmgr, no-docgrub, nogrub, nogrubinstall, no-grubenv, noupdategrub, not-far
Partitions info (2/3): _________________________________________________________
mapper/ubuntu--vg-root : isnotESP, fstab-without-efi, no-nt, no-winload, no-recov-nor-hid, no-bmgr, notwinboot
sda1 : isnotESP, part-has-no-fstab, no-nt, no-winload, no-recov-nor-hid, no-bmgr, notwinboot
sdb1 : isnotESP, part-has-no-fstab, no-nt, no-winload, no-recov-nor-hid, no-bmgr, notwinboot
Partitions info (3/3): _________________________________________________________
mapper/ubuntu--vg-root : not-sepboot, with-boot, fstab-has-goodBOOT, not-sep-usr, with--usr, fstab-without-usr, std-grub.d, sda
sda1 : is-sepboot, no-boot, part-has-no-fstab, not-sep-usr, no---usr, part-has-no-fstab, std-grub.d, sda
sdb1 : maybesepboot, no-boot, part-has-no-fstab, not-sep-usr, no---usr, part-has-no-fstab, std-grub.d, sdb
fdisk -l (filtered): ___________________________________________________________
Disk sdb: 931.53 GiB, 1000204886016 bytes, 1953525168 sectors
Disk identifier: 0x2fb1a8d7
Boot Start End Sectors Size Id Type
sdb1 2048 999423 997376 487M 83 Linux
sdb2 1001470 1953523711 1952522242 931G 5 Extended
sdb5 * 1001472 1953523711 1952522240 931G fd Linux raid autodetect
Disk sda: 931.53 GiB, 1000204886016 bytes, 1953525168 sectors
Disk identifier: 0xa209e489
Boot Start End Sectors Size Id Type
sda1 2048 999423 997376 487M 83 Linux
sda2 1001470 1953523711 1952522242 931G 5 Extended
sda5 * 1001472 1953523711 1952522240 931G fd Linux raid autodetect
Disk md127: 930.93 GiB, 999556120576 bytes, 1952258048 sectors
Disk mapper/ubuntu--vg-root: 923.14 GiB, 991210504192 bytes, 1935958016 sectors
parted -lm (filtered): _________________________________________________________
sda:1000GB:scsi:512:4096:msdos:ATA ST1000DM010-2EP1:;
1:1049kB:512MB:511MB:ext2::;
2:513MB:1000GB:1000GB:::;
5:513MB:1000GB:1000GB:::boot, raid;
sdb:1000GB:scsi:512:4096:msdos:ATA ST1000DM010-2EP1:;
1:1049kB:512MB:511MB:::;
2:513MB:1000GB:1000GB:::;
5:513MB:1000GB:1000GB:::boot, raid;
mapper/ubuntu--vg-root:991GB:dm:512:4096:loop:Linux device-mapper (linear):;
1:0.00B:991GB:991GB:ext4::;
md127:1000GB:md:512:4096:unknown:Linux Software RAID Array:;
blkid (filtered): ______________________________________________________________
NAME FSTYPE UUID PARTUUID LABEL PARTLABEL
sda
├─sda1 ext2 d0f7d742-1323-4e20-ad59-0e748da03201 a209e489-01
├─sda2 a209e489-02
└─sda5 linux_raid_member 23bb85b0-fb9f-81a8-d54c-13df0e110c8a a209e489-05 jupiter.arial-concept.com:0
└─md127 LVM2_member A3ZdvZ-zaGp-eHcw-NRC1-RT9j-3nUA-swHfJT
└─ubuntu--vg-root ext4 9d75c8bd-bfda-4351-a327-3bfa211d72ea
sdb
├─sdb1 2fb1a8d7-01
├─sdb2 2fb1a8d7-02
└─sdb5 linux_raid_member 23bb85b0-fb9f-81a8-d54c-13df0e110c8a 2fb1a8d7-05 jupiter.arial-concept.com:0
└─md127 LVM2_member A3ZdvZ-zaGp-eHcw-NRC1-RT9j-3nUA-swHfJT
└─ubuntu--vg-root ext4 9d75c8bd-bfda-4351-a327-3bfa211d72ea
df (filtered): _________________________________________________________________
Avail Use% Mounted on
mapper/ubuntu--vg-root 677.6G 20% /
sda1 156.6M 62% /boot
Mount options: __________________________________________________________________
mapper/ubuntu--vg-root rw,relatime,errors=remount-ro
sda1 rw,relatime,stripe=4
============================== ls -R /dev/mapper/ ==============================
/dev/mapper:
control
ubuntu--vg-root
======================== sda1/grub/grub.cfg (filtered) =========================
Ubuntu 9d75c8bd-bfda-4351-a327-3bfa211d72ea
Ubuntu, avec Linux 5.4.0-60-generic 9d75c8bd-bfda-4351-a327-3bfa211d72ea
Ubuntu, avec Linux 5.4.0-59-generic 9d75c8bd-bfda-4351-a327-3bfa211d72ea
Ubuntu, avec Linux 4.15.0-129-generic 9d75c8bd-bfda-4351-a327-3bfa211d72ea
### END /etc/grub.d/30_os-prober ###
### END /etc/grub.d/30_uefi-firmware ###
==================== sda1: Location of files loaded by Grub ====================
GiB - GB File Fragment(s)
0.085962296 = 0.092301312 grub/grub.cfg 8
0.399896622 = 0.429385728 grub/i386-pc/core.img 2
0.297017097 = 0.318919680 vmlinuz 13
0.161132812 = 0.173015040 vmlinuz-4.15.0-129-generic 13
0.248188972 = 0.266490880 vmlinuz-5.4.0-59-generic 15
0.297017097 = 0.318919680 vmlinuz-5.4.0-60-generic 13
0.248188972 = 0.266490880 vmlinuz.old 15
0.443170547 = 0.475850752 initrd.img 30
0.463867188 = 0.498073600 initrd.img-4.15.0-129-generic 53
0.269342422 = 0.289204224 initrd.img-5.4.0-59-generic 37
0.443170547 = 0.475850752 initrd.img-5.4.0-60-generic 30
0.269342422 = 0.289204224 initrd.img.old 37
=============================== StdErr Messages ================================
File descriptor 63 (pipe:[2102156]) leaked on lvs invocation. Parent PID 186438: /bin/bash
WARNING: Device /dev/md127 has size of 1952258048 sectors which is smaller than corresponding PV size of 1952530350 sectors. Was device resized?
WARNING: One or more devices used as PVs in VG ubuntu-vg have changed sizes.
File descriptor 63 (pipe:[2102156]) leaked on lvchange invocation. Parent PID 198205: /bin/bash
WARNING: Device /dev/md127 has size of 1952258048 sectors which is smaller than corresponding PV size of 1952530350 sectors. Was device resized?
WARNING: One or more devices used as PVs in VG ubuntu-vg have changed sizes.
/usr/share/boot-sav/b-i-s-functions.sh: ligne 1653: 1935958016S : valeur trop grande pour la base (le symbole erroné est « 1935958016S »)
mdadm: No arrays found in config file or automatically
================================ LVM activation ================================
modprobe dm-mod
vgscan --mknodes
Found volume group "ubuntu-vg" using metadata type lvm2
vgchange -ay
1 logical volume(s) in volume group "ubuntu-vg" now active
lvscan
ACTIVE '/dev/ubuntu-vg/root' [<923.14 GiB] inherit
blkid -g
=================== blkid (filtered) before raid activation: ===================
/dev/mapper/ubuntu--vg-root: UUID="9d75c8bd-bfda-4351-a327-3bfa211d72ea" TYPE="ext4"
/dev/sdb5: UUID="23bb85b0-fb9f-81a8-d54c-13df0e110c8a" UUID_SUB="8d23e3ff-5fed-a11b-dad3-58917dfce22d" LABEL="jupiter.arial-concept.com:0" TYPE="linux_raid_member" PARTUUID="2fb1a8d7-05"
/dev/sda1: UUID="d0f7d742-1323-4e20-ad59-0e748da03201" TYPE="ext2" PARTUUID="a209e489-01"
/dev/sda5: UUID="23bb85b0-fb9f-81a8-d54c-13df0e110c8a" UUID_SUB="d6406acf-851d-81e4-8b6f-ab37e085dc67" LABEL="jupiter.arial-concept.com:0" TYPE="linux_raid_member" PARTUUID="a209e489-05"
/dev/md127: UUID="A3ZdvZ-zaGp-eHcw-NRC1-RT9j-3nUA-swHfJT" TYPE="LVM2_member"
/dev/sdb1: PARTUUID="2fb1a8d7-01"
dmraid -si -c
no raid disks
No DMRAID disk.
mdadm --assemble --scan
mdadm --detail --scan
ARRAY /dev/md/jupiter.arial-concept.com:0 metadata=1.2 name=jupiter.arial-concept.com:0 UUID=23bb85b0:fb9f81a8:d54c13df:0e110c8a
Error code 12
mount -r /dev/sdb1 /mnt/boot-sav/sdb1
mount -r /dev/sdb1 : Error code 12
Error code 12
mount -r /dev/sdb1 /mnt/boot-sav/sdb1
mount -r /dev/sdb1 : Error code 12
Suggested repair: ______________________________________________________________
The default repair of the Boot-Repair utility would purge (in order to enable-raid) and reinstall the grub2 of
mapper/ubuntu--vg-root into the MBR of sda,
using the following options: sda1/boot,
Additional repair would be performed: unhide-bootmenu-10s
Final advice in case of suggested repair: ______________________________________
Please do not forget to make your BIOS boot on sda (ATA ST1000DM010-2EP1) disk!
Les deux partitions RAIDS sont bien visibles et au premier niveau
sda5: __________________________________________________________________________
File system: linux_raid_member
Boot sector type: -
Boot sector info:
sdb5: __________________________________________________________________________
File system: linux_raid_member
Boot sector type: -
Boot sector info:
Le point de montage raid est bien vu avec dessous le LVM ce qui est bien ce que j'avais compris
blkid (filtered): ______________________________________________________________
NAME FSTYPE UUID PARTUUID LABEL PARTLABEL
sda
└─sda5 linux_raid_member 23bb85b0-fb9f-81a8-d54c-13df0e110c8a a209e489-05 jupiter.arial-concept.com:0
└─md127 LVM2_member A3ZdvZ-zaGp-eHcw-NRC1-RT9j-3nUA-swHfJT
└─ubuntu--vg-root ext4 9d75c8bd-bfda-4351-a327-3bfa211d72ea
sdb
└─sdb5 linux_raid_member 23bb85b0-fb9f-81a8-d54c-13df0e110c8a 2fb1a8d7-05 jupiter.arial-concept.com:0
└─md127 LVM2_member A3ZdvZ-zaGp-eHcw-NRC1-RT9j-3nUA-swHfJT
└─ubuntu--vg-root ext4 9d75c8bd-bfda-4351-a327-3bfa211d72ea
Tu penseras à dupliquer le contenu de SDA1 dans SDB1 et les 446 premiers caractères de SDA dans SDB
et au vu de ce retour
======================== sda1/grub/grub.cfg (filtered) =========================
Ubuntu 9d75c8bd-bfda-4351-a327-3bfa211d72ea
Ubuntu, avec Linux 5.4.0-60-generic 9d75c8bd-bfda-4351-a327-3bfa211d72ea
Ubuntu, avec Linux 5.4.0-59-generic 9d75c8bd-bfda-4351-a327-3bfa211d72ea
Ubuntu, avec Linux 4.15.0-129-generic 9d75c8bd-bfda-4351-a327-3bfa211d72ea
Tu pourrais probablement pouvoir éliminer le noyau le plus ancien avec la commande
sudo apt autoremove --purge
Dernière modification par geole (Le 12/01/2021, à 14:29)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
En ligne
#24 Le 12/01/2021, à 20:09
- samprzyswa
Re : Créer un RAID-1 sur installation LVM
Par contre je n'arrive pas à cloner /dev/sda1 sur /dev/sdb1 j'ai un trou de mémoire ...
Sam.
Dernière modification par samprzyswa (Le 12/01/2021, à 20:10)
Système: Ubuntu 20.04.4
Carte mère MSI B560 PRO-VDH | Carte graphique Radeon HD 7450
Intel(R) Core(TM) i3-10105F CPU @ 3.70GHz
Linux RAID1 2X1Tb
Hors ligne
#25 Le 13/01/2021, à 01:22
- samprzyswa
Re : Créer un RAID-1 sur installation LVM
Voilà mon nouveau boot-info :
boot-info-4ppa125 [20210113_0109]
============================== Boot Info Summary ===============================
=> Grub2 (v2.00) is installed in the MBR of /dev/sda and looks at sector 1 of
the same hard drive for core.img. core.img is at this location and looks
for (,msdos1)/grub. It also embeds following components:
modules
---------------------------------------------------------------------------
fshelp ext2 part_msdos biosdisk
---------------------------------------------------------------------------
=> No boot loader is installed in the MBR of /dev/sdb.
sda1: __________________________________________________________________________
File system: ext2
Boot sector type: -
Boot sector info:
Operating System:
Boot files: /grub/grub.cfg /grub/i386-pc/core.img
sda2: __________________________________________________________________________
File system: Extended Partition
Boot sector type: -
Boot sector info:
sda5: __________________________________________________________________________
File system: linux_raid_member
Boot sector type: -
Boot sector info:
sdb1: __________________________________________________________________________
File system: ext2
Boot sector type: -
Boot sector info:
Operating System:
Boot files: /grub/grub.cfg /grub/i386-pc/core.img
sdb2: __________________________________________________________________________
File system: Extended Partition
Boot sector type: -
Boot sector info:
sdb5: __________________________________________________________________________
File system: linux_raid_member
Boot sector type: -
Boot sector info:
md/jupiter.arial-concept.com:0: ________________________________________________
File system: LVM2_member
Boot sector type: -
Boot sector info:
================================ 1 OS detected =================================
OS#1: L'OS actuellement utilisé - Ubuntu 20.04.1 LTS CurrentSession on mapper/ubuntu--vg-root
============================ Architecture/Host Info ============================
CPU architecture: 64-bit
BOOT_IMAGE of the installed session in use:
/vmlinuz-5.4.0-60-generic root=/dev/mapper/ubuntu--vg-root ro persistent quiet splash
===================================== UEFI =====================================
This installed-session is not in EFI-mode.
EFI in dmesg.
[ 0.007507] ACPI: UEFI 0x00000000CA6DB3A0 000042 (v01 ALASKA A M I 00000002 01000013)
============================= Drive/Partition Info =============================
Disks info: ____________________________________________________________________
sda : notGPT, no-BIOSboot, has-noESP, not-usb, not-mmc, has-os, 2048 sectors * 512 bytes
sdb : notGPT, no-BIOSboot, has-noESP, not-usb, not-mmc, no-os, 2048 sectors * 512 bytes
Partitions info (1/3): _________________________________________________________
mapper/ubuntu--vg-root : is-os, 64, apt-get, grub-pc , grub2, grub-install, grubenv-ok, update-grub, not-far
sda1 : no-os, 32, nopakmgr, no-docgrub, nogrub, nogrubinstall, grubenv-ok, noupdategrub, not-far
sdb1 : no-os, 32, nopakmgr, no-docgrub, nogrub, nogrubinstall, grubenv-ok, noupdategrub, not-far
Partitions info (2/3): _________________________________________________________
mapper/ubuntu--vg-root : isnotESP, fstab-without-efi, no-nt, no-winload, no-recov-nor-hid, no-bmgr, notwinboot
sda1 : isnotESP, part-has-no-fstab, no-nt, no-winload, no-recov-nor-hid, no-bmgr, notwinboot
sdb1 : isnotESP, part-has-no-fstab, no-nt, no-winload, no-recov-nor-hid, no-bmgr, notwinboot
Partitions info (3/3): _________________________________________________________
mapper/ubuntu--vg-root : not-sepboot, with-boot, fstab-has-goodBOOT, not-sep-usr, with--usr, fstab-without-usr, std-grub.d, sda
sda1 : is-sepboot, no-boot, part-has-no-fstab, not-sep-usr, no---usr, part-has-no-fstab, std-grub.d, sda
sdb1 : is-sepboot, no-boot, part-has-no-fstab, not-sep-usr, no---usr, part-has-no-fstab, std-grub.d, sdb
fdisk -l (filtered): ___________________________________________________________
Disk sdb: 931.53 GiB, 1000204886016 bytes, 1953525168 sectors
Disk identifier: 0x2fb1a8d7
Boot Start End Sectors Size Id Type
sdb1 2048 999423 997376 487M 83 Linux
sdb2 1001470 1953523711 1952522242 931G 5 Extended
sdb5 * 1001472 1953523711 1952522240 931G fd Linux raid autodetect
Disk sda: 931.53 GiB, 1000204886016 bytes, 1953525168 sectors
Disk identifier: 0xa209e489
Boot Start End Sectors Size Id Type
sda1 2048 999423 997376 487M 83 Linux
sda2 1001470 1953523711 1952522242 931G 5 Extended
sda5 * 1001472 1953523711 1952522240 931G fd Linux raid autodetect
Disk md127: 930.93 GiB, 999556120576 bytes, 1952258048 sectors
Disk mapper/ubuntu--vg-root: 923.14 GiB, 991210504192 bytes, 1935958016 sectors
parted -lm (filtered): _________________________________________________________
sda:1000GB:scsi:512:4096:msdos:ATA ST1000DM010-2EP1:;
1:1049kB:512MB:511MB:ext2::;
2:513MB:1000GB:1000GB:::;
5:513MB:1000GB:1000GB:::boot, raid;
sdb:1000GB:scsi:512:4096:msdos:ATA ST1000DM010-2EP1:;
1:1049kB:512MB:511MB:ext2::;
2:513MB:1000GB:1000GB:::;
5:513MB:1000GB:1000GB:::boot, raid;
mapper/ubuntu--vg-root:991GB:dm:512:4096:loop:Linux device-mapper (linear):;
1:0.00B:991GB:991GB:ext4::;
md127:1000GB:md:512:4096:unknown:Linux Software RAID Array:;
blkid (filtered): ______________________________________________________________
NAME FSTYPE UUID PARTUUID LABEL PARTLABEL
sda
├─sda1 ext2 d0f7d742-1323-4e20-ad59-0e748da03201 a209e489-01
├─sda2 a209e489-02
└─sda5 linux_raid_member 23bb85b0-fb9f-81a8-d54c-13df0e110c8a a209e489-05 jupiter.arial-concept.com:0
└─md127 LVM2_member A3ZdvZ-zaGp-eHcw-NRC1-RT9j-3nUA-swHfJT
└─ubuntu--vg-root ext4 9d75c8bd-bfda-4351-a327-3bfa211d72ea
sdb
├─sdb1 ext2 d0f7d742-1323-4e20-ad59-0e748da03201 2fb1a8d7-01 /boot
├─sdb2 2fb1a8d7-02
└─sdb5 linux_raid_member 23bb85b0-fb9f-81a8-d54c-13df0e110c8a 2fb1a8d7-05 jupiter.arial-concept.com:0
└─md127 LVM2_member A3ZdvZ-zaGp-eHcw-NRC1-RT9j-3nUA-swHfJT
└─ubuntu--vg-root ext4 9d75c8bd-bfda-4351-a327-3bfa211d72ea
df (filtered): _________________________________________________________________
Avail Use% Mounted on
mapper/ubuntu--vg-root 677.8G 20% /
sda1 239.3M 44% /boot
sdb1 239.3M 44% /mnt/boot-sav/sdb1
Mount options: __________________________________________________________________
mapper/ubuntu--vg-root rw,relatime,errors=remount-ro
sda1 rw,relatime,stripe=4
sdb1 rw,relatime,stripe=4
============================== ls -R /dev/mapper/ ==============================
/dev/mapper:
control
ubuntu--vg-root
======================== sda1/grub/grub.cfg (filtered) =========================
Ubuntu 9d75c8bd-bfda-4351-a327-3bfa211d72ea
Ubuntu, avec Linux 5.4.0-60-generic 9d75c8bd-bfda-4351-a327-3bfa211d72ea
Ubuntu, avec Linux 5.4.0-59-generic 9d75c8bd-bfda-4351-a327-3bfa211d72ea
### END /etc/grub.d/30_os-prober ###
### END /etc/grub.d/30_uefi-firmware ###
==================== sda1: Location of files loaded by Grub ====================
GiB - GB File Fragment(s)
0.067875862 = 0.072881152 grub/grub.cfg 4
0.399896622 = 0.429385728 grub/i386-pc/core.img 2
0.297017097 = 0.318919680 vmlinuz 13
0.248188972 = 0.266490880 vmlinuz-5.4.0-59-generic 15
0.297017097 = 0.318919680 vmlinuz-5.4.0-60-generic 13
0.248188972 = 0.266490880 vmlinuz.old 15
0.443170547 = 0.475850752 initrd.img 30
0.269342422 = 0.289204224 initrd.img-5.4.0-59-generic 37
0.443170547 = 0.475850752 initrd.img-5.4.0-60-generic 30
0.269342422 = 0.289204224 initrd.img.old 37
======================== sdb1/grub/grub.cfg (filtered) =========================
Ubuntu 9d75c8bd-bfda-4351-a327-3bfa211d72ea
Ubuntu, avec Linux 5.4.0-60-generic 9d75c8bd-bfda-4351-a327-3bfa211d72ea
Ubuntu, avec Linux 5.4.0-59-generic 9d75c8bd-bfda-4351-a327-3bfa211d72ea
### END /etc/grub.d/30_os-prober ###
### END /etc/grub.d/30_uefi-firmware ###
==================== sdb1: Location of files loaded by Grub ====================
GiB - GB File Fragment(s)
0.067875862 = 0.072881152 grub/grub.cfg 4
0.399896622 = 0.429385728 grub/i386-pc/core.img 2
0.297017097 = 0.318919680 vmlinuz 13
0.248188972 = 0.266490880 vmlinuz-5.4.0-59-generic 15
0.297017097 = 0.318919680 vmlinuz-5.4.0-60-generic 13
0.248188972 = 0.266490880 vmlinuz.old 15
0.443170547 = 0.475850752 initrd.img 30
0.269342422 = 0.289204224 initrd.img-5.4.0-59-generic 37
0.443170547 = 0.475850752 initrd.img-5.4.0-60-generic 30
0.269342422 = 0.289204224 initrd.img.old 37
=============================== StdErr Messages ================================
File descriptor 63 (pipe:[4622996]) leaked on lvs invocation. Parent PID 477242: /bin/bash
WARNING: Device /dev/md127 has size of 1952258048 sectors which is smaller than corresponding PV size of 1952530350 sectors. Was device resized?
WARNING: One or more devices used as PVs in VG ubuntu-vg have changed sizes.
File descriptor 63 (pipe:[4622996]) leaked on lvchange invocation. Parent PID 489484: /bin/bash
WARNING: Device /dev/md127 has size of 1952258048 sectors which is smaller than corresponding PV size of 1952530350 sectors. Was device resized?
WARNING: One or more devices used as PVs in VG ubuntu-vg have changed sizes.
/usr/share/boot-sav/b-i-s-functions.sh: ligne 1653: 1935958016S : valeur trop grande pour la base (le symbole erroné est « 1935958016S »)
mdadm: No arrays found in config file or automatically
================================ LVM activation ================================
modprobe dm-mod
vgscan --mknodes
Found volume group "ubuntu-vg" using metadata type lvm2
vgchange -ay
1 logical volume(s) in volume group "ubuntu-vg" now active
lvscan
ACTIVE '/dev/ubuntu-vg/root' [<923.14 GiB] inherit
blkid -g
=================== blkid (filtered) before raid activation: ===================
/dev/mapper/ubuntu--vg-root: UUID="9d75c8bd-bfda-4351-a327-3bfa211d72ea" TYPE="ext4"
/dev/sdb5: UUID="23bb85b0-fb9f-81a8-d54c-13df0e110c8a" UUID_SUB="8d23e3ff-5fed-a11b-dad3-58917dfce22d" LABEL="jupiter.arial-concept.com:0" TYPE="linux_raid_member" PARTUUID="2fb1a8d7-05"
/dev/sda1: UUID="d0f7d742-1323-4e20-ad59-0e748da03201" TYPE="ext2" PARTUUID="a209e489-01"
/dev/sda5: UUID="23bb85b0-fb9f-81a8-d54c-13df0e110c8a" UUID_SUB="d6406acf-851d-81e4-8b6f-ab37e085dc67" LABEL="jupiter.arial-concept.com:0" TYPE="linux_raid_member" PARTUUID="a209e489-05"
/dev/md127: UUID="A3ZdvZ-zaGp-eHcw-NRC1-RT9j-3nUA-swHfJT" TYPE="LVM2_member"
/dev/sdb1: LABEL="/boot" UUID="d0f7d742-1323-4e20-ad59-0e748da03201" TYPE="ext2" PARTUUID="2fb1a8d7-01"
dmraid -si -c
no raid disks
No DMRAID disk.
mdadm --assemble --scan
mdadm --detail --scan
ARRAY /dev/md/jupiter.arial-concept.com:0 metadata=1.2 name=jupiter.arial-concept.com:0 UUID=23bb85b0:fb9f81a8:d54c13df:0e110c8a
Suggested repair: ______________________________________________________________
The default repair of the Boot-Repair utility would purge (in order to enable-raid) and reinstall the grub2 of
mapper/ubuntu--vg-root into the MBR of sda,
using the following options: sda1/boot,
Additional repair would be performed: unhide-bootmenu-10s
Final advice in case of suggested repair: ______________________________________
Please do not forget to make your BIOS boot on sda (ATA ST1000DM010-2EP1) disk!
Je n'ai plus le noyau Linux 4.15.0-129-generic mais du coup le lien symbolique /initrd.img qui pointait dessus est en erreur, que faire ???
Est-ce que je peux passer à la dernière phase du tuto :
Sam.
Dernière modification par samprzyswa (Le 13/01/2021, à 02:14)
Système: Ubuntu 20.04.4
Carte mère MSI B560 PRO-VDH | Carte graphique Radeon HD 7450
Intel(R) Core(TM) i3-10105F CPU @ 3.70GHz
Linux RAID1 2X1Tb
Hors ligne