Contenu | Rechercher | Menus

Annonce

Si vous avez des soucis pour rester connecté, déconnectez-vous puis reconnectez-vous depuis ce lien en cochant la case
Me connecter automatiquement lors de mes prochaines visites.

À propos de l'équipe du forum.

#26 Le 15/01/2023, à 22:20

geole

Re : Réduire un groupe de volumes LVM (contenant le volume système)

Je t'ai donné une piste pour rétrécir  ton installation chiffrée.
Comme je peux me planter, sauve tes données personnelles avant de commencer.

Pour la suite: La partition de partage devrait être en EXFAT plus fiable que NTFS.
Si tu  dois chiffrer certains documents et pas d'autres, tu peux utiliser veracrypt en visant un répertoire.

Si tu rates le rétrécissement, tu peux réinstaller sans prendre toute la SD.
Avec le gparted du support,  supprimer la partition mmcblkp3, créer la partition EXFAT de 10 go. Si gparted ne peut pas faire, faire en ntfs.
Puis lancer l'installation avec le choix autre chose.
Si choix non chiffré, tu alloues le reste de l'espace disque à une partition EXT4 à allouer au point de montage /.
Si choix  chiffré,  tu alloues le reste de l'espace disque à une partition  LUKS puis l'espace libre de la partition LUKS à une partition EXT4 au point de montage / Voir documentation.
Le paragrahe 7.3 a écrit "Notons que la proposition standard, est "système de fichier journalisé EXT4". Ce n'est pas du tout ce qu'il faut. Donc on utilise le menu déroulant pour choisir "volume physique pour chiffrement" qui est vers la fin de liste"-.

Dernière modification par geole (Le 15/01/2023, à 23:07)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#27 Le 15/01/2023, à 22:42

pehache

Re : Réduire un groupe de volumes LVM (contenant le volume système)

Qid a écrit :

Ah bah c'est sûr que dans ces conditions... wink
Après comme on le disait un Ubuntu 22.04 dans moins de 50go ça peut se négocier mais faut juste maîtriser le terrain : savoir ce qui mange l'espace système pour ne pas trop en abuser : les Snap en tête...

Déjà c'est Xubuntu, un poil moins lourd par défaut le disque, et en plus 18.04 (les versions postérieures présentent un bug sur mon modèle de PC : https://forum.ubuntu-fr.org/viewtopic.php?id=2075998), donc sans snap par défaut il me semble.

Hors ligne

#28 Le 15/01/2023, à 22:46

pehache

Re : Réduire un groupe de volumes LVM (contenant le volume système)

geole a écrit :

Je t'ai donné une piste pour rétrécir  ton installation chiffrée.

Oui je vais me lancer (au pire si ça foire je réinstalle, je n'ai rien dessus qui ne soit pas une synchro ou copie de données qui sont déjà ailleurs)

Les manipes que tu indiques sont réalisables en mettant la carte dans un autre PC je suppose ? Ca me permettrait de le faire tranquillement à mon rythme sans immobiliser celui-ci.

Dernière modification par pehache (Le 15/01/2023, à 22:51)

Hors ligne

#29 Le 15/01/2023, à 22:55

Qid

Re : Réduire un groupe de volumes LVM (contenant le volume système)

pehache a écrit :
Qid a écrit :

Ah bah c'est sûr que dans ces conditions... wink
Après comme on le disait un Ubuntu 22.04 dans moins de 50go ça peut se négocier mais faut juste maîtriser le terrain : savoir ce qui mange l'espace système pour ne pas trop en abuser : les Snap en tête...

Déjà c'est Xubuntu, un poil moins lourd par défaut le disque, et en plus 18.04 [•••] donc sans snap par défaut il me semble.

T'as raison... Reste que la 18.04 ne va pas tarder à être abandonnée... Il ne vaudrait pas mieux se pencher sur tes problèmes avec la 22.04 ?

Dernière modification par Qid (Le 15/01/2023, à 23:44)


"GNU/Linux c'est que du bon mais M$ Windows ce n'est pas si mal"
Référent technique Ubuntu d'un Groupe d'Utilisateur du Libre
plus d'info sur mon profil

Hors ligne

#30 Le 15/01/2023, à 23:10

geole

Re : Réduire un groupe de volumes LVM (contenant le volume système)

pehache a écrit :
geole a écrit :

Je t'ai donné une piste pour rétrécir  ton installation chiffrée.

Les manipes que tu indiques sont réalisables en mettant la carte dans un autre PC je suppose ? Ca me permettrait de le faire tranquillement à mon rythme sans immobiliser celui-ci.

Bien entendu et c'est plus pratique qu'une live-usb.


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#31 Le 17/01/2023, à 05:22

MicP

Re : Réduire un groupe de volumes LVM (contenant le volume système)

Bonjour

Voilà comment j'ai fait :

########################################################################
### Prérequis luks et lvm2 devront êtres installés sur le système Hôte
########################################################################

######################
### État des lieux :
######################
root@xubuntu:~# lsblk --exclude 7,11 -oSIZE,FSSIZE,FSUSED,NAME,FSTYPE,MOUNTPOINT,UUID
 SIZE FSSIZE FSUSED NAME                                          FSTYPE      MOUNTPOINT                                          UUID
  60G               mmcblk0                                                                           
   1M               ├─mmcblk0p1                                                                        
 513M               ├─mmcblk0p2                                   vfat                                                            2C40-481F
 1,7G               ├─mmcblk0p3                                   ext4                                                            549a08bf-72cc-48f8-aefc-4dbb63468c82
57,8G               └─mmcblk0p4                                   crypto_LUKS                                                     d1664b67-4e01-4db9-b439-be81990557a5
57,8G                 └─luks-d1664b67-4e01-4db9-b439-be81990557a5               
                                                                  LVM2_member                                                     SR5Xjc-L402-qt64-Yknq-CAYd-UHZ0-b3raRl
54,2G    53G   8,9G     ├─xubuntu-vg-root                         ext4        /media/xubuntu/0ac5ebbd-ccec-4a30-b5eb-01916c3156e4 0ac5ebbd-ccec-4a30-b5eb-01916c3156e4
 3,6G                   └─xubuntu-vg-swap_1                       swap                                                            7ed1b007-fdbb-4301-b1a3-a2d1d09a0193
root@xubuntu:~# 


############################################
### Déchiffrer la partition qui sert de PV
############################################
root@xubuntu:~# cryptsetup luksOpen /dev/mmcblk0p4 luks-d1664b67-4e01-4db9-b439-be81990557a5
Saisissez la phrase secrète pour /dev/mmcblk0p4 : 
root@xubuntu:~# 

######################################################################
### Démonter le système de fichiers dont il faudra réduire la taille
###  (si on veut pouvoir modifier la taille de ce système de fichiers,
###    il ne faut pas qu'il soit en cours d'utilisation par le système)
######################################################################
root@xubuntu:~# umount /dev/mapper/xubuntu-vg-root
root@xubuntu:~# 

#########################################################################
### Vérifier l'état du système de fichiers avant d'en réduire la taille
###  (Il se pourrait que ce système de fichiers fonctionne apparemment bien, mais qu'en fait il ne soit pas vraiment en bon état,
###    et si on réduit la taille de ce système de fichiers alors qu'il n'était pas en bon état, alors ça sera la catastrophe,
###    donc, il est plus prudent de faire une petite vérification avant)
#########################################################################
root@xubuntu:~# fsck -f  /dev/mapper/xubuntu-vg-root
fsck de util-linux 2.38
e2fsck 1.46.5 (30-Dec-2021)
Passe 1 : vérification des i-noeuds, des blocs et des tailles
Passe 2 : vérification de la structure des répertoires
Passe 3 : vérification de la connectivité des répertoires
Passe 4 : vérification des compteurs de référence
Passe 5 : vérification de l'information du sommaire de groupe
/dev/mapper/xubuntu-vg-root : 225964/3555328 fichiers (0.1% non contigus), 2644071/14201856 blocs
root@xubuntu:~# 

###########################################################################
### Vérifier la taille minimale que pourrait avoir ce système de fichiers
###  (On sait jamais, il ne faudrait surtout pas trop réduire la taille, sinon, on perdra tout) 
###  (le retour est : 2610232 blocs de 4KiB <=> 2610232 * 4 * 1024 = 10691510272 octets <=> environ 10Go de données dans les 53GB de ce système de fichiers)
###  (Donc il ne faudra pas que la taille une fois réduite soit inférieure à 10Go)
###########################################################################
root@xubuntu:~# resize2fs -P /dev/mapper/xubuntu-vg-root
resize2fs 1.46.5 (30-Dec-2021)
Taille minimale estimée du système de fichiers : 2610232
root@xubuntu:~# 

####################################################################
### Réduire la taille du LV root et du système de fichiers contenu
###  (Ce Volume Logique utilisait 54,18 GiB d'espace disque,
###    je vais réduire sa taille de 10GiB => 54,18 - 10 = 44,18
###    donc il restera bien plus que les 10Go mini indiqués dans le retour de la commande précédente)
####################################################################
root@xubuntu:~# lvresize --resizefs --size -10G /dev/mapper/xubuntu-vg-root
fsck de util-linux 2.38
/dev/mapper/xubuntu-vg-root : propre, 225964/3555328 fichiers, 2644071/14201856 blocs
resize2fs 1.46.5 (30-Dec-2021)
En train de redimensionner le système de fichiers sur /dev/mapper/xubuntu-vg-root à 11580416 (4k) blocs.
Le système de fichiers sur /dev/mapper/xubuntu-vg-root a maintenant une taille de 11580416 blocs (4k).

  Size of logical volume xubuntu-vg/root changed from <54,18 GiB (13869 extents) to <44,18 GiB (11309 extents).
  Logical volume xubuntu-vg/root successfully resized.
root@xubuntu:~# 

###########################################
### Vérifier quelle est la position actuelle des PE (<=> Physical Extent)
###  (pour savoir où se situe l'espace disponible)
###########################################
root@xubuntu:~# pvs -v --segments /dev/mapper/luks-d1664b67-4e01-4db9-b439-be81990557a5
  PV                                                    VG         Fmt  Attr PSize   PFree  Start SSize LV     Start Type   PE Ranges                                                        
  /dev/mapper/luks-d1664b67-4e01-4db9-b439-be81990557a5 xubuntu-vg lvm2 a--  <57,81g 10,00g     0 11309 root       0 linear /dev/mapper/luks-d1664b67-4e01-4db9-b439-be81990557a5:0-11308    
  /dev/mapper/luks-d1664b67-4e01-4db9-b439-be81990557a5 xubuntu-vg lvm2 a--  <57,81g 10,00g 11309  2560            0 free                                                                    
  /dev/mapper/luks-d1664b67-4e01-4db9-b439-be81990557a5 xubuntu-vg lvm2 a--  <57,81g 10,00g 13869   930 swap_1     0 linear /dev/mapper/luks-d1664b67-4e01-4db9-b439-be81990557a5:13869-14798
root@xubuntu:~#

############################
### Déplacer les PE utilisés pour le VL de swap
###  (en déplaçant les PE utilisés par le Volume Logique swap
###   ça va déplacer les PE libres à la fin du PV)
###  (Note : (13869+930)-1=14798 et (11309+930)-1=12238)
############################
root@xubuntu:~# pvmove --alloc anywhere /dev/mapper/luks-d1664b67-4e01-4db9-b439-be81990557a5:13869-14798  /dev/mapper/luks-d1664b67-4e01-4db9-b439-be81990557a5:11309-12238
  /dev/mapper/luks-d1664b67-4e01-4db9-b439-be81990557a5: Moved: 1,72%
  /dev/mapper/luks-d1664b67-4e01-4db9-b439-be81990557a5: Moved: 56,88%
  /dev/mapper/luks-d1664b67-4e01-4db9-b439-be81990557a5: Moved: 100,00%
root@xubuntu:~#


###########################################
### Vérifier quelle est la position actuelle des PE
###  (les PE libres sont maintenant à la fin du PV)
###########################################
root@xubuntu:~# pvs -v --segments /dev/mapper/luks-d1664b67-4e01-4db9-b439-be81990557a5
  PV                                                    VG         Fmt  Attr PSize   PFree  Start SSize LV     Start Type   PE Ranges                                                        
  /dev/mapper/luks-d1664b67-4e01-4db9-b439-be81990557a5 xubuntu-vg lvm2 a--  <57,81g 10,00g     0 11309 root       0 linear /dev/mapper/luks-d1664b67-4e01-4db9-b439-be81990557a5:0-11308    
  /dev/mapper/luks-d1664b67-4e01-4db9-b439-be81990557a5 xubuntu-vg lvm2 a--  <57,81g 10,00g 11309   930 swap_1     0 linear /dev/mapper/luks-d1664b67-4e01-4db9-b439-be81990557a5:11309-12238
  /dev/mapper/luks-d1664b67-4e01-4db9-b439-be81990557a5 xubuntu-vg lvm2 a--  <57,81g 10,00g 12239  2560            0 free                                                                    
root@xubuntu:~# 

#############################
### Réduire la taille du PV
###  (12239*4=48956 et j'y ajoute un PE de 4 MB => 48956+4=48960 MB)
#############################
root@xubuntu:~# pvresize --setphysicalvolumesize 48960M /dev/mapper/luks-d1664b67-4e01-4db9-b439-be81990557a5
/dev/mapper/luks-d1664b67-4e01-4db9-b439-be81990557a5: Requested size 47,81 GiB is less than real size 57,81 GiB. Proceed?  [y/n]: y
  WARNING: /dev/mapper/luks-d1664b67-4e01-4db9-b439-be81990557a5: Pretending size is 100270080 not 121239552 sectors.
  Physical volume "/dev/mapper/luks-d1664b67-4e01-4db9-b439-be81990557a5" changed
  1 physical volume(s) resized or updated / 0 physical volume(s) not resized
root@xubuntu:~# 

###########################################
### Vérifier quelle est la position actuelle des PE
###########################################
root@xubuntu:~# pvs -v --segments /dev/mapper/luks-d1664b67-4e01-4db9-b439-be81990557a5
  PV                                                    VG         Fmt  Attr PSize   PFree Start SSize LV     Start Type   PE Ranges                                                        
  /dev/mapper/luks-d1664b67-4e01-4db9-b439-be81990557a5 xubuntu-vg lvm2 a--  <47,81g    0      0 11309 root       0 linear /dev/mapper/luks-d1664b67-4e01-4db9-b439-be81990557a5:0-11308    
  /dev/mapper/luks-d1664b67-4e01-4db9-b439-be81990557a5 xubuntu-vg lvm2 a--  <47,81g    0  11309   930 swap_1     0 linear /dev/mapper/luks-d1664b67-4e01-4db9-b439-be81990557a5:11309-12238
root@xubuntu:~# 

################################################################
### Récup taille en secteurs occupée par le PV une fois réduit
### (100261888*512)/(1024*1024)=48956 MB
################################################################
root@xubuntu:~# pvs --units s
  PV                                                    VG         Fmt  Attr PSize      PFree
  /dev/mapper/luks-d1664b67-4e01-4db9-b439-be81990557a5 xubuntu-vg lvm2 a--  100261888S    0S
root@xubuntu:~# 


#####################################
### Désactiver les Volumes Logiques
#####################################
root@xubuntu:~# vgchange -a n xubuntu-vg
  0 logical volume(s) in volume group "xubuntu-vg" now active
root@xubuntu:~# 

######################################
### Fermer le périphérique déchiffré
######################################
root@xubuntu:~# cryptsetup luksClose luks-d1664b67-4e01-4db9-b439-be81990557a5
root@xubuntu:~# 


################################################
### Réduire la taille de la partition chiffrée
### (je détruis l'entrée référençant la partition qui est utilisée par le PV pour la recréer aussitôt après
### mais en changeant sa taille pour 100261888 secteurs et un peu plus => 100261900)
################################################
root@xubuntu:~# fdisk /dev/mmcblk0p

Bienvenue dans fdisk (util-linux 2.38).
Les modifications resteront en mémoire jusqu'à écriture.
Soyez prudent avant d'utiliser la commande d'écriture.


Commande (m pour l'aide) : p
Disque /dev/mmcblk0p : 60 GiB, 64424509440 octets, 125829120 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Type d'étiquette de disque : gpt
Identifiant de disque : 40FBCF1D-EBD7-4833-AE75-C62E770E6029

Périphérique   Début       Fin  Secteurs Taille Type
/dev/mmcblk0p1       2048      4095      2048     1M Amorçage BIOS
/dev/mmcblk0p2       4096   1054719   1050624   513M Système EFI
/dev/mmcblk0p3    1054720   4554751   3500032   1,7G Système de fichiers Linux
/dev/mmcblk0p4    4554752 125827071 121272320  57,8G Système de fichiers Linux

Commande (m pour l'aide) : d
Numéro de partition (1-4, 4 par défaut) : 

La partition 4 a été supprimée.

Commande (m pour l'aide) : n
Numéro de partition (4-128, 4 par défaut) : 
Premier secteur (4554752-125829086, 4554752 par défaut) : 
Last sector, +/-sectors or +/-size{K,M,G,T,P} (4554752-125829086, 125827071 par défaut) : +100261900

Une nouvelle partition 4 de type « Linux filesystem » et de taille 47,8 GiB a été créée.
La partition #4 contient une signature crypto_LUKS.

Voulez-vous supprimer la signature ? [O]ui/[N]on : n

Commande (m pour l'aide) : p

Disque /dev/mmcblk0p : 60 GiB, 64424509440 octets, 125829120 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Type d'étiquette de disque : gpt
Identifiant de disque : 40FBCF1D-EBD7-4833-AE75-C62E770E6029

Périphérique   Début       Fin  Secteurs Taille Type
/dev/mmcblk0p1       2048      4095      2048     1M Amorçage BIOS
/dev/mmcblk0p2       4096   1054719   1050624   513M Système EFI
/dev/mmcblk0p3    1054720   4554751   3500032   1,7G Système de fichiers Linux
/dev/mmcblk0p4    4554752 104816652 100261901  47,8G Système de fichiers Linux

Commande (m pour l'aide) : w
La table de partitions a été altérée.
Appel d'ioctl() pour relire la table de partitions.
Synchronisation des disques.

root@xubuntu:~# 

####################################################
### Après ajout d'une nouvelle partition de 10GB avec GParted :
### je constate que GParted a aligné la nouvelle partition sur le MB suivant : 
###  fin de la N°4 à 104816652 début de la N°5 à 104818688 => 104818688-104816652=2036
###  et si on y ajoute les 12 secteurs que j'avais ajoutés => 2036+12=2048 => 2048 * 512 = 1048576 octets <=> 1 MB
####################################################
root@xubu2204:~# fdisk -l /dev/mmcblk0p
Disque /dev/mmcblk0p : 60 GiB, 64424509440 octets, 125829120 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Type d'étiquette de disque : gpt
Identifiant de disque : 40FBCF1D-EBD7-4833-AE75-C62E770E6029

Périphérique     Début       Fin  Secteurs Taille Type
/dev/mmcblk0p1         2048      4095      2048     1M Amorçage BIOS
/dev/mmcblk0p2         4096   1054719   1050624   513M Système EFI
/dev/mmcblk0p3      1054720   4554751   3500032   1,7G Système de fichiers Linux
/dev/mmcblk0p4      4554752 104816652 100261901  47,8G Système de fichiers Linux
/dev/mmcblk0p5    104818688 125827071  21008384    10G Données de base Microsoft
root@xubu2204:~# 

Dernière modification par MicP (Le 18/01/2023, à 00:55)

Hors ligne

#32 Le 17/01/2023, à 11:27

geole

Re : Réduire un groupe de volumes LVM (contenant le volume système)

Bonjour à tous.

Merci MicP de ton test complet sur la réduction d'un LVM chiffré qui prend aussi en charge le déplacement de l'espace swap.
Cela ne sera pas oublié.

Cela va servir

MicP a écrit :

Dans ce cas, il serait peut-être intéressant d'utiliser une version live + mode persistance + une partition supplémentaire formatée en exFat (pour les accès depuis les systèmes Windows).
Mais je ne sais pas si c'est toujours faisable avec les versions actuelles d'Ubuntu.

C'est toujours possible. Avec Ventoy, on peut réserver un espace important pour utilisation ultérieure. Puis on peut faire un ajout de la persistance qui est encore supportée en 22.04.   Je n'ai pas regardé en 22.10. Mais il n'y aura pas de chiffrement.
Je  n'ai d'ailleurs jamais compris pourquoi on  est obligé  de chiffrer le logiciel   et  faire du LVM pour chiffrer les données.
Il serait temps que l'installateur pense à  proposer une partition de données au moment de l'installation. Il n'est pas obligé de suivre  la pensée microsoft. "Vos données m'appartiennent."
.

Dernière modification par geole (Le 17/01/2023, à 11:29)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#33 Le 17/01/2023, à 23:03

pehache

Re : Réduire un groupe de volumes LVM (contenant le volume système)

MicP a écrit :

Voilà comment j'ai fait :

Wahou ! Un GRAND merci pour ce tuto complet ! Je l'ai suivi pas à pas, et j'ai (à peu près) compris ce que je faisais, alors que je n'avais jamais touché à LVM avant ça. J'ai pu adapter quand ça se présentait (un poil) différemment chez moi, et j'ai même fait une figure improvisée en déplaçant aussi le swap pour pouvoir l'agrandir un poil par la suite smile

Le moment de vérité c'était j'ai essayé de booter sur la carte ainsi modifiée... et ça a marché ! Bon, je ne suis pas à l'abri d'une corruption un de ces jours si j'ai foiré certaines valeurs de positionnement, en principe j'ai fait attention, mais... En tous cas so far so good, et j'ai pu agrandir le swap une fois rebooté. Au final j'ai 47Gio dans le volume de boot, 2Gio de swap, et 9Gio de partition exFAT lisible par Windows.

Hors ligne

#34 Le 17/01/2023, à 23:48

MicP

Re : Réduire un groupe de volumes LVM (contenant le volume système)

Ça fait vraiment plaisir de voir que ce que j'ai fait ait pu servir à quelqu'un …

Dans son message #33, pehache a écrit :

… j'ai essayé de booter sur la carte ainsi modifiée... et ça a marché ! …

… et de voir en plus que tu aies réussi à le mettre en pratique sans casse, Bravo !  big_smile

=======
Pour faire ce test sans prendre aucun risque,
j'avais utilisé une machine virtuelle Qemu/Kvm (virt-manager) qui démarrait en mode BIOS (<=> pas UEFI)
et le fichier image ISO xubuntu-22.10-desktop-amd64.iso

Pour mon premier test, malgré le fait que j’aie utilisé une carte µSD de 64 GB,
le partitionnement automatique de la carte a été fait en GPT par l'installateur Xubuntu
et a créé 4 partitions.

J'ai refait ensuite un autre test mais cette fois avec un disque virtuel de 60GB,
et le résultat a été le même : le partitionnement c'est quand même fait en GPT avec aussi 4 partitions.

Dans les deux cas, si on veut choisir d'utiliser le chiffrement.
le choix du système LVM est imposé par le programme d'installation automatique.

Avec un système Ubuntu ou Xubuntu, je n'ai pas encore tenté de faire un partitionnement manuel avant l'installation,
et testé si l'on pouvait utiliser une partition chiffrée sans être obligé utiliser LVM, mais je pense que ce doit être possible.

Dernière modification par MicP (Le 18/01/2023, à 01:08)

Hors ligne

#35 Le 18/01/2023, à 00:32

pehache

Re : Réduire un groupe de volumes LVM (contenant le volume système)

A ce sujet :

Qid a écrit :

Reste que la 18.04 ne va pas tarder à être abandonnée... Il ne vaudrait pas mieux se pencher sur tes problèmes avec la 22.04 ?

J'ai essayé de résoudre le problème avec la 22.04 (freezes graphiques intempestifs obligeant à éteindre sauvagement le PC), et la solution trouvée sur les sites/forums fonctionne à 99% : les freezes disparaissent pour l'essentiel, mais reviennent lors de certaines manipes (par exemple la sortie d'une lecture vidéo en plein écran). Donc je préfère rester en 18.04 tant que je ne suis pas coincé pour une raison ou pour une autre (et j'ai compris que le support ESM de 10 ans était applicable au moins en partie aux variantes d'Ubuntu).

Dernière modification par pehache (Le 18/01/2023, à 00:32)

Hors ligne

#36 Le 18/01/2023, à 08:19

Qid

Re : Réduire un groupe de volumes LVM (contenant le volume système)

Pour moi l'esm n'est pas une solution...
Après je ne sais pas ce qui a été fait comme recherche sur ton cas
Mais ça sent le simple problème de driver graphique...


"GNU/Linux c'est que du bon mais M$ Windows ce n'est pas si mal"
Référent technique Ubuntu d'un Groupe d'Utilisateur du Libre
plus d'info sur mon profil

Hors ligne

#37 Le 18/01/2023, à 13:17

geole

Re : Réduire un groupe de volumes LVM (contenant le volume système)

MicP a écrit :

Avec un système Ubuntu ou Xubuntu, je n'ai pas encore tenté de faire un partitionnement manuel avant l'installation,
et testé si l'on pouvait utiliser une partition chiffrée sans être obligé utiliser LVM, mais je pense que ce doit être possible.

Bonjour.
Voir mon échange N°26 et son cas  d application

a@a:~$ df -h
Sys. de fichiers        Taille Utilisé Dispo Uti% Monté sur
tmpfs                     583M    2,4M  580M   1% /run
/dev/mapper/sda10_crypt    63G     13G   48G  21% /
tmpfs                     2,9G       0  2,9G   0% /dev/shm
tmpfs                     5,0M    4,0K  5,0M   1% /run/lock
/dev/sda8                 2,0G    394M  1,5G  22% /boot
/dev/sda1                  98M     37M   61M  38% /boot/efi
/dev/sda18                288G     34G  255G  12% /media/Commun
tmpfs                     583M    2,4M  580M   1% /run/user/1000

a@a:~$ LANG=C free -h
               total        used        free      shared  buff/cache   available
Mem:           5.7Gi       857Mi       3.9Gi       160Mi       1.0Gi       4.5Gi
Swap:          1.0Gi          0B       1.0Gi

a@a:~$ grep swap /etc/fstab
/swapfileAMOI none swap sw 0 0

a@a:~$ cat /etc/lsb-release
DISTRIB_ID=Ubuntu
DISTRIB_RELEASE=22.10
DISTRIB_CODENAME=kinetic
DISTRIB_DESCRIPTION="Ubuntu 22.10"

a@a:~$ lsblk -fe7
NAME            FSTYPE            FSVER LABEL            UUID                                 FSAVAIL FSUSE% MOUNTPOINTS
sda                                                                                                          
├─sda1          vfat              FAT32 FAT-UN           4AF6-82D3                              60,5M    38% /boot/efi
├─sda2                                                                                                       
├─sda3          vfat              FAT32 FATUBUNTU        5B2A-C436                                           
├─sda4          ntfs                    W21H2a           01D90F1070F973F0                                    
├─sda5          vfat              FAT32 FAT-DEUX         B364-95B8                                           
├─sda6          ntfs                    doubleW21H2a     33516A8B7B5856E3                                    
├─sda7          ext4              1.0   U20.04           45b57b34-0e1d-4d6e-aab3-e56dc7f254d1                
├─sda8          ext4              1.0   grubchiffre22.10 04e39960-b424-4acc-a2dd-bc2804283f77    1,4G    20% /boot
├─sda10         ntfs                    W21H2b           43E02AD31E884337                                    
├─sda12         crypto_LUKS       2                      d37997e2-c324-4d64-93e8-07459cb1c4b8                
│ └─sda10_crypt ext4              1.0                    28ad0c3f-3f3f-427a-ada3-89502bd99bd9   47,2G    20% /var/snap/firefox/common/host-hunspell
│                                                                                                            /
├─sda14         vfat              FAT32 FAT1604          A9B5-585D                                           
├─sda15         ext4              1.0   U16.04           6ff8e4b5-b1ee-4f77-81d2-a65b75a488bd                
├─sda16                                                                                                      
├─sda17         ext4              1.0   NewUbuntu        23539e56-b34d-4eb9-be77-9a2f6674c9ce                
└─sda18         ntfs                    Commun           5E67A0CF47490312                      254,1G    12% /media/Commun
sdb                                                                                                          
├─sdb1          linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb2          linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb3          linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb4          linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb5          linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb6          linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb7          linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb8          linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb9          linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb10         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb11         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb12         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb13         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb14         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb15         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb16         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb17         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb18         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb19         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb20         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb21         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb22         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb23         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb24         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb25         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb26         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb27         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb28         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb29         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb30         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb31         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb32         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb33         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb34         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb35         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb36         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb37         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb38         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb39         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb40         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb41         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb42         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb43         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb44         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb45         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb46         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb47         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb48         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb49         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb50         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb51         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb52         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb53         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb54         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb55         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb56         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb57         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb58         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb59         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb60         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb61         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb62         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb63         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb64         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb65         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb66         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb67         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb68         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb69         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb70         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb71         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb72         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb73         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb74         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb75         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb76         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb77         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb78         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb79         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb80         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb81         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb82         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb83         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb84         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb85         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb86         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb87         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb88         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb89         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb90         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb91         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb92         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb93         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb94         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb95         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb96         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb97         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb98         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb99         linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb100        linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb101        linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb102        linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb103        linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb104        linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb105        linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb106        linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb107        linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb108        linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb109        linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb110        linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb111        linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb112        linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb113        linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb114        linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb115        linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb116        linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb117        linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb118        linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb119        linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb120        linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb121        linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb122        linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb123        linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb124        linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb125        linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb126        linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
├─sdb127        linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
└─sdb128        linux_raid_member 1.2   p:0              4a9ca8a5-8207-72ea-23a2-acbb956a95ac                
sr0                                                                                                          
a@a:~$ 

Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne