Pages : 1
#1 Le 24/09/2015, à 16:47
- funose
Raid
Bonjour,
Après 15 jours de recherches je suis obligé de demander de l'aide :-(
Je suis nouveau sur Linux et vous demande d'être indulgents.
J'ai installé Ubuntu LTS (puis Mint)
Ma config :
1 - ssd avec w10 installé
2 - ssd avec Mint
3 - dd sata raid 0 partition ntfs
4 - dd sata raid 0 partition ntfs
J'ai réussi à voir mon raid 0 sous Ubuntu avec la commande
mdadm --assemble --scan
le problème est que le raid ne se lançait pas au démarrage
J'ai donc modifié le fichier mdadm.conf dans etc/defaut pour ajouter la ligne
autostrart = true
cela n'a pas résolu mon problème mais l'a empiré
depuis le raid ne se lance plus du tout même avec la commande
mdadm --assemble --scan
je n'ai pas non plus de message d'erreur
Ici le contenu du fichier /etc/mdadm/mdadm.conf
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
MAILADDR root
# definitions of existing MD arrays
ARRAY metadata=imsm UUID=879310db:fd10a883:476ce18f:743c6c75
ARRAY /dev/md/Volume1 container=879310db:fd10a883:476ce18f:743c6c75 member=0 UUID=19f8a2df:02bb49f7:bc5cd10c:ca84ff7f
# This file was auto-generated on Thu, 24 Sep 2015 16:19:23 +0200
# by mkconf $Id$
et ici le contenu du fichier /etc/default/mdadm
# mdadm Debian configuration
#
# You can run 'dpkg-reconfigure mdadm' to modify the values in this file, if
# you want. You can also change the values here and changes will be preserved.
# Do note that only the values are preserved; the rest of the file is
# rewritten.
#
# AUTOCHECK:
# should mdadm run periodic redundancy checks over your arrays? See
# /etc/cron.d/mdadm.
AUTOCHECK=true
# START_DAEMON:
# should mdadm start the MD monitoring daemon during boot?
START_DAEMON=true
# DAEMON_OPTIONS:
# additional options to pass to the daemon.
DAEMON_OPTIONS="--syslog"
# VERBOSE:
# if this variable is set to true, mdadm will be a little more verbose e.g.
# when creating the initramfs.
VERBOSE=false
# MAIL_TO:
# this variable is now managed in /etc/mdadm/mdadm.conf (MAILADDR).
# Please see mdadm.conf(5).
lorsque j'interro le mdstat :
ordi ~ # cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
unused devices: <none>
et les examine :
ordi ~ # mdadm --examine /dev/sdc
/dev/sdc:
Magic : Intel Raid ISM Cfg Sig.
Version : 1.0.00
Orig Family : 8b082c35
Family : 8b082c35
Generation : 00000308
Attributes : All supported
UUID : 879310db:fd10a883:476ce18f:743c6c75
Checksum : fe394001 correct
MPB Sectors : 1
Disks : 2
RAID Devices : 1
Disk00 Serial : S13PJ90QB00828
State : active
Id : 00020000
Usable Size : 1953519880 (931.51 GiB 1000.20 GB)
[Volume1]:
UUID : 19f8a2df:02bb49f7:bc5cd10c:ca84ff7f
RAID Level : 0
Members : 2
Slots : [UU]
Failed disk : none
This Slot : 0
Array Size : 3907039232 (1863.02 GiB 2000.40 GB)
Per Dev Size : 1953519880 (931.51 GiB 1000.20 GB)
Sector Offset : 0
Num Stripes : 61047488
Chunk Size : 16 KiB
Reserved : 0
Migrate State : idle
Map State : normal
Dirty State : clean
Disk01 Serial : S13PJ90QB00842
State : active
Id : 00030000
Usable Size : 1953519880 (931.51 GiB 1000.20 GB)
et
ordi ~ # mdadm --examine /dev/sdd
/dev/sdd:
Magic : Intel Raid ISM Cfg Sig.
Version : 1.0.00
Orig Family : 8b082c35
Family : 8b082c35
Generation : 00000308
Attributes : All supported
UUID : 879310db:fd10a883:476ce18f:743c6c75
Checksum : fe394001 correct
MPB Sectors : 1
Disks : 2
RAID Devices : 1
Disk01 Serial : S13PJ90QB00842
State : active
Id : 00030000
Usable Size : 1953519880 (931.51 GiB 1000.20 GB)
[Volume1]:
UUID : 19f8a2df:02bb49f7:bc5cd10c:ca84ff7f
RAID Level : 0
Members : 2
Slots : [UU]
Failed disk : none
This Slot : 1
Array Size : 3907039232 (1863.02 GiB 2000.40 GB)
Per Dev Size : 1953519880 (931.51 GiB 1000.20 GB)
Sector Offset : 0
Num Stripes : 61047488
Chunk Size : 16 KiB
Reserved : 0
Migrate State : idle
Map State : normal
Dirty State : clean
Disk00 Serial : S13PJ90QB00828
State : active
Id : 00020000
Usable Size : 1953519880 (931.51 GiB 1000.20 GB)
J'ai aussi désinstallé dmraid qui est installé par défaut, il me détectait le raid en mirror(1) alors
que je suis en stripping (0)
Merci d'avance à ceux qui prendront le temps de lire mon post.
Modération : merci à l'avenir d'utiliser les balises code (explications ici).
Dernière modification par cqfd93 (Le 30/09/2015, à 16:59)
Hors ligne
#2 Le 30/09/2015, à 12:01
- funose
Re : Raid
Personne n'a d'idée ?
Hors ligne
Pages : 1