Contenu | Rechercher | Menus

Annonce

Si vous avez des soucis pour rester connecté, déconnectez-vous puis reconnectez-vous depuis ce lien en cochant la case
Me connecter automatiquement lors de mes prochaines visites.

À propos de l'équipe du forum.

#1 Le 12/03/2023, à 15:26

frederic1963

[Résolu] RAID renommé systématiquement md127

Bonjour,

J'étudie Linux avec VirtualBox et j'ai donc créé une machine avec 4 unités disques pour étudier le système de fichier. Mon unité de disque sdb est bien présente

root@vm-serveur:/# gdisk -l /dev/sdb
GPT fdisk (gdisk) version 1.0.5

Partition table scan:
  MBR: protective
  BSD: not present
  APM: not present
  GPT: present

Found valid GPT with protective MBR; using GPT.
Disk /dev/sdb: 2097152 sectors, 1024.0 MiB
Model: VBOX HARDDISK   
Sector size (logical/physical): 512/512 bytes
Disk identifier (GUID): B6491725-BE50-4605-AC5F-329580295409
Partition table holds up to 128 entries
Main partition table begins at sector 2 and ends at sector 33
First usable sector is 34, last usable sector is 2097118
Partitions will be aligned on 2048-sector boundaries
Total free space is 2014 sectors (1007.0 KiB)

Number  Start (sector)    End (sector)  Size       Code  Name
   1            2048         2097118   1023.0 MiB  8300  Linux filesystem

mais je ne parviens ni à la démonter

root@vm-serveur:/# umount /dev/sdb1
umount: /dev/sdb1: not mounted.

ni à la monter dans un répertoire

root@vm-serveur:/mnt/mes_donnes# mount -t ext4 /dev/sdb1 /mnt/mes_donnes
mount: /mnt/mes_donnes: /dev/sdb1 already mounted or mount point busy.
root@vm-serveur:/mnt/mes_donnes# mount -t ext4 /dev/sdb1 /var/data1
mount: /var/data1: /dev/sdb1 already mounted or mount point busy.
root@vm-serveur:/mnt/mes_donnes# mount | grep ^/dev/sd
/dev/sda2 on / type ext4 (rw,relatime)
root@vm-serveur:/mnt/mes_donnes# tune2fs -l /dev/sdb1
tune2fs 1.45.5 (07-Jan-2020)
tune2fs: Bad magic number in super-block while trying to open /dev/sdb1
tune2fs: Bad magic number in super-block while trying to open /dev/sdb
Found a gpt partition table in /dev/sdb

Lors de ma dernière "leçon" (avec open classroom), j'étudiais le système RAID. J'ai probablement oublié de faire ou défaire qqchose quand j'ai quitté le serveur et du coup ce $?*µ% de disque refuse les opérations que je veux lui faire subir. Comme je ne suis vraiment pas expérimenté je ne sais pas dans quelle direction chercher. Je suis limité aux commandes que je connais, mais je vois bien que sdb ou sdb1 doivent être monopolisé par un programme mais je ne comprend pas lequel et surtout je n'ai pas idée sur la façon de localiser le problème.

Dernière modification par frederic1963 (Le 13/03/2023, à 09:06)

Hors ligne

#2 Le 12/03/2023, à 16:13

geole

Re : [Résolu] RAID renommé systématiquement md127

Bonjour.
Le point de montage n'est peut-être pas vide. La partition n'est peut-être pas  ext4 bien que cela  indiqué comme tel.
Peux-tu essayer

mkdir PDM
sudo mount -v /dev/sdb1  PDM
journalctl --no-pager -n 20
sudo blkid | grep sdb1

Ou alors la structure EXT4 a été cassée. Si tu n'as pas de données dedans, le plus rapide serait de la rzformater avec gparted.

Dernière modification par geole (Le 12/03/2023, à 16:18)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity

Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#3 Le 12/03/2023, à 18:50

frederic1963

Re : [Résolu] RAID renommé systématiquement md127

Voilà ce que j'obtiens

root@vm-serveur:/home/frederic# mkdir /var/PDM
root@vm-serveur:/home/frederic# mount -v /dev/sdb1 /var/PDM
mount: /var/PDM: wrong fs type, bad option, bad superblock on /dev/sdb1, missing codepage or helper program, or other error.
root@vm-serveur:/home/frederic# mount -t ext4 /dev/sdb1 /var/PDM
mount: /var/PDM: wrong fs type, bad option, bad superblock on /dev/sdb1, missing codepage or helper program, or other error.
root@vm-serveur:/home/frederic# journalctl --no-pager -n 20
-- Logs begin at Thu 2023-03-02 13:13:05 UTC, end at Sun 2023-03-12 16:44:22 UTC. --
mars 12 16:40:58 vm-serveur systemd[1131]: Listening on debconf communication socket.
mars 12 16:40:58 vm-serveur systemd[1131]: Listening on REST API socket for snapd user session agent.
mars 12 16:40:58 vm-serveur systemd[1131]: Listening on D-Bus User Message Bus Socket.
mars 12 16:40:58 vm-serveur systemd[1131]: Reached target Sockets.
mars 12 16:40:58 vm-serveur systemd[1131]: Reached target Basic System.
mars 12 16:40:58 vm-serveur systemd[1]: Started User Manager for UID 1000.
mars 12 16:40:58 vm-serveur systemd[1]: Started Session 4 of user frederic.
mars 12 16:40:58 vm-serveur systemd[1131]: Reached target Main User Target.
mars 12 16:40:58 vm-serveur systemd[1131]: Startup finished in 139ms.
mars 12 16:41:07 vm-serveur sudo[1239]: frederic : TTY=pts/0 ; PWD=/home/frederic ; USER=root ; COMMAND=/usr/bin/su
mars 12 16:41:07 vm-serveur sudo[1239]: pam_unix(sudo:session): session opened for user root by frederic(uid=0)
mars 12 16:41:07 vm-serveur su[1241]: (to root) frederic on pts/0
mars 12 16:41:07 vm-serveur su[1241]: pam_unix(su:session): session opened for user root by frederic(uid=0)
mars 12 16:41:57 vm-serveur kernel: FS-Cache: Loaded
mars 12 16:41:57 vm-serveur kernel: RPC: Registered named UNIX socket transport module.
mars 12 16:41:57 vm-serveur kernel: RPC: Registered udp transport module.
mars 12 16:41:57 vm-serveur kernel: RPC: Registered tcp transport module.
mars 12 16:41:57 vm-serveur kernel: RPC: Registered tcp NFSv4.1 backchannel transport module.
mars 12 16:41:57 vm-serveur kernel: FS-Cache: Netfs 'nfs' registered for caching
mars 12 16:44:22 vm-serveur kernel: EXT4-fs (sdb1): VFS: Can't find ext4 filesystem
root@vm-serveur:/home/frederic# blkid | grep sdb1
/dev/sdb1: PARTLABEL="Linux filesystem" PARTUUID="1f71611d-5d6b-43fd-ac4e-10e37937dd23"

Hors ligne

#4 Le 12/03/2023, à 20:20

geole

Re : [Résolu] RAID renommé systématiquement md127

La structure EXT4 a été cassée. Si tu n'as pas de données importantes dedans, le plus rapide sera de la reformater avec gparted. Sinon  on tente de la réparer

sudo fsc -y /dev/sdb1

Si plantage  disant que le bloc 0 est incorrect, essaie avec une autre commande etun autre bloc  de la liste

sudo e2fsck -b nnnnn -yfv /dev/sdb1

en remplaçant    nnnnnnn par les numéros de la liste en les faisant tous les uns à la suite des autres jusqu'à ce que l'un fonctionne.
        32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632,


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity

Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#5 Le 12/03/2023, à 20:59

frederic1963

Re : [Résolu] RAID renommé systématiquement md127

Le problème venait du RAID (mdadm) qui a été renommé au redémarrage. Au lieu de s'appeler md0, il s'appelait md127. J'ai démonté le raid, recréé le RAID qui s'est de nouveau appelé md0 et redémarré la machine. Et rebelotte le RAID est de nouveau renommé md127 au lieu de md0. J'ai pourtant bien inséré cette commande dans le fichier mdadm.conf

ARRAY /dev/md0 level=raid1 num-devices=2 spares=1 UUID=507c59d3:9ba0df7f:532d16ef:fbb7f49f devices=/dev/sdb,/dev/sdc,dev/sdd

Hors ligne

#6 Le 12/03/2023, à 21:32

geole

Re : [Résolu] RAID renommé systématiquement md127

Accepte donc qu'il s'appelle maintenant md127 Il ne te reste plus qu'à le monter.


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity

Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#7 Le 13/03/2023, à 09:04

frederic1963

Re : [Résolu] RAID renommé systématiquement md127

geole a écrit :

Accepte donc qu'il s'appelle maintenant md127 Il ne te reste plus qu'à le monter.

En creusant sur le net et sur le forum je me suis aperçu que ce problème était connu et non résolu à ce jour. A savoir que lors de la création d'un RAID après un reboot le systeme le md127. Si l'on ajoute un second RAID, le premier est alors nommé md126 et le nouvellement créé md127 et ainsi de suite. J'ai n'ai pas trouvé d'explication la-dessus, je pense que c'est un bug mineur, qui n'empêche pas le bon fonctionnement du système. Donc je ferme le thread.

Hors ligne