Contenu | Rechercher | Menus

Annonce

Si vous avez des soucis pour rester connecté, déconnectez-vous puis reconnectez-vous depuis ce lien en cochant la case
Me connecter automatiquement lors de mes prochaines visites.

À propos de l'équipe du forum.

#1 Le 24/09/2015, à 16:47

funose

Raid

Bonjour,

Après 15 jours de recherches je suis obligé de demander de l'aide :-(

Je suis nouveau sur Linux et vous demande d'être indulgents.

J'ai installé Ubuntu LTS (puis Mint)

Ma config :
1 - ssd avec w10 installé
2 - ssd avec Mint
3 - dd sata raid 0 partition ntfs
4 - dd sata raid 0 partition ntfs

J'ai réussi à voir mon raid 0 sous Ubuntu avec la commande
mdadm --assemble --scan

le problème est que le raid ne se lançait pas au démarrage

J'ai donc modifié le fichier mdadm.conf dans etc/defaut pour ajouter la ligne
autostrart = true

cela n'a pas résolu mon problème mais l'a empiré

depuis le raid ne se lance plus du tout même avec la commande
mdadm --assemble --scan
je n'ai pas non plus de message d'erreur

Ici le contenu du fichier /etc/mdadm/mdadm.conf

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays
ARRAY metadata=imsm UUID=879310db:fd10a883:476ce18f:743c6c75
ARRAY /dev/md/Volume1 container=879310db:fd10a883:476ce18f:743c6c75 member=0 UUID=19f8a2df:02bb49f7:bc5cd10c:ca84ff7f

# This file was auto-generated on Thu, 24 Sep 2015 16:19:23 +0200
# by mkconf $Id$

et ici le contenu du fichier /etc/default/mdadm

# mdadm Debian configuration
#
# You can run 'dpkg-reconfigure mdadm' to modify the values in this file, if
# you want. You can also change the values here and changes will be preserved.
# Do note that only the values are preserved; the rest of the file is
# rewritten.
#

# AUTOCHECK:
#   should mdadm run periodic redundancy checks over your arrays? See
#   /etc/cron.d/mdadm.
AUTOCHECK=true

# START_DAEMON:
#   should mdadm start the MD monitoring daemon during boot?
START_DAEMON=true

# DAEMON_OPTIONS:
#   additional options to pass to the daemon.
DAEMON_OPTIONS="--syslog"

# VERBOSE:
#   if this variable is set to true, mdadm will be a little more verbose e.g.
#   when creating the initramfs.
VERBOSE=false

# MAIL_TO:
#   this variable is now managed in /etc/mdadm/mdadm.conf (MAILADDR).
#   Please see mdadm.conf(5).

lorsque j'interro le mdstat :

ordi ~ # cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
unused devices: <none>

et les examine :

ordi ~ # mdadm --examine /dev/sdc
/dev/sdc:
          Magic : Intel Raid ISM Cfg Sig.
        Version : 1.0.00
    Orig Family : 8b082c35
         Family : 8b082c35
     Generation : 00000308
     Attributes : All supported
           UUID : 879310db:fd10a883:476ce18f:743c6c75
       Checksum : fe394001 correct
    MPB Sectors : 1
          Disks : 2
   RAID Devices : 1

  Disk00 Serial : S13PJ90QB00828
          State : active
             Id : 00020000
    Usable Size : 1953519880 (931.51 GiB 1000.20 GB)

[Volume1]:
           UUID : 19f8a2df:02bb49f7:bc5cd10c:ca84ff7f
     RAID Level : 0
        Members : 2
          Slots : [UU]
    Failed disk : none
      This Slot : 0
     Array Size : 3907039232 (1863.02 GiB 2000.40 GB)
   Per Dev Size : 1953519880 (931.51 GiB 1000.20 GB)
  Sector Offset : 0
    Num Stripes : 61047488
     Chunk Size : 16 KiB
       Reserved : 0
  Migrate State : idle
      Map State : normal
    Dirty State : clean

  Disk01 Serial : S13PJ90QB00842
          State : active
             Id : 00030000
    Usable Size : 1953519880 (931.51 GiB 1000.20 GB)

et

ordi ~ # mdadm --examine /dev/sdd
/dev/sdd:
          Magic : Intel Raid ISM Cfg Sig.
        Version : 1.0.00
    Orig Family : 8b082c35
         Family : 8b082c35
     Generation : 00000308
     Attributes : All supported
           UUID : 879310db:fd10a883:476ce18f:743c6c75
       Checksum : fe394001 correct
    MPB Sectors : 1
          Disks : 2
   RAID Devices : 1

  Disk01 Serial : S13PJ90QB00842
          State : active
             Id : 00030000
    Usable Size : 1953519880 (931.51 GiB 1000.20 GB)

[Volume1]:
           UUID : 19f8a2df:02bb49f7:bc5cd10c:ca84ff7f
     RAID Level : 0
        Members : 2
          Slots : [UU]
    Failed disk : none
      This Slot : 1
     Array Size : 3907039232 (1863.02 GiB 2000.40 GB)
   Per Dev Size : 1953519880 (931.51 GiB 1000.20 GB)
  Sector Offset : 0
    Num Stripes : 61047488
     Chunk Size : 16 KiB
       Reserved : 0
  Migrate State : idle
      Map State : normal
    Dirty State : clean

  Disk00 Serial : S13PJ90QB00828
          State : active
             Id : 00020000
    Usable Size : 1953519880 (931.51 GiB 1000.20 GB)

J'ai aussi désinstallé dmraid qui est installé par défaut, il me détectait le raid en mirror(1) alors
que je suis en stripping (0)

Merci d'avance à ceux qui prendront le temps de lire mon post.


Modération : merci à l'avenir d'utiliser les balises code (explications ici).

Dernière modification par cqfd93 (Le 30/09/2015, à 16:59)

Hors ligne

#2 Le 30/09/2015, à 12:01

funose

Re : Raid

Personne n'a d'idée ?

Hors ligne