#1 Le 08/06/2017, à 22:57
- bobregman
Raid 5 Inactive
Bonsoir,
J'auraos besoin de votre aide.
J'ai voulu réinstaller mon NAS sous ubuntu server propre comme je le fais de temps en temps sans soucis particulier mais la forcement il y a un problème 1 seul Raid et reconnu sur mes deux Raid habituel.
J'ai /dev/md0 qui est un raid 1 sur deux disques de 1To qui lui marche bien et un Raid 5 sur 3 Disques de 3To et s'est ce raid /dev/md127 qui est affiché comme inactif.
J'ai lu plusieurs post a se sujet sur le forum ou sur d'autre forum mais rien ne resoud le problème et j'ai pas trop envie de perdre mes données.
Je vous mets la liste des différentes commande que j'ai essayé ci dessous.
Merci d'avance
pour infos
Ubuntu server 16.04 LTS tout a jour avec dernier noyaux
J'ai supprimer le mdadm.conf désinstallé mdadm via apt-get autoremove et redémarré puis réinstallé mais rien.
J'ai recréé une image de Ubuntu server au cas ou rien donné non plus
J'ai essayé de stopper et de re assemblé mais rien non plus
Je reste a votre disposition pour essayé d'autre commande
Merci encore
fdisk -l
Disque /dev/sdb : 2,7 TiB, 3000592982016 octets, 5860533168 secteurs
Unités : sectors of 1 * 512 = 512 octets
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0x52096da7
Périphérique Amorçage Start Fin Secteurs Size Id Type
/dev/sdb1 2048 4294967294 4294965247 2T 83 Linux
Disque /dev/sda : 465,8 GiB, 500107862016 octets, 976773168 secteurs
Unités : sectors of 1 * 512 = 512 octets
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0x42f3f920
Périphérique Amorçage Start Fin Secteurs Size Id Type
/dev/sda1 * 2048 968456191 968454144 461,8G 83 Linux
/dev/sda2 968458238 976771071 8312834 4G 5 Étendue
/dev/sda5 968458240 976771071 8312832 4G 82 partition d'échange Linux / Solaris
Partition 2 does not start on physical sector boundary.
Disque /dev/sde : 931,5 GiB, 1000204886016 octets, 1953525168 secteurs
Unités : sectors of 1 * 512 = 512 octets
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0xc0cc70bd
Périphérique Amorçage Start Fin Secteurs Size Id Type
/dev/sde1 2048 1953525167 1953523120 931,5G 83 Linux
Disque /dev/sdf : 931,5 GiB, 1000204886016 octets, 1953525168 secteurs
Unités : sectors of 1 * 512 = 512 octets
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0xc7c59ebe
Périphérique Amorçage Start Fin Secteurs Size Id Type
/dev/sdf1 2048 1953525167 1953523120 931,5G 83 Linux
Disque /dev/md0 : 931,4 GiB, 1000069595136 octets, 1953260928 secteurs
Unités : sectors of 1 * 512 = 512 octets
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
mdadm --detail /dev/md127
mdadm: Unknown keyword INACTIVE-ARRAY
/dev/md127:
Version :
Raid Level : raid0
Total Devices : 0
State : inactive
Number Major Minor RaidDevice
mdadm --detail /dev/sdb ou sdc ou sdd
mdadm: Unknown keyword INACTIVE-ARRAY
mdadm: /dev/sdb does not appear to be an md device
mdadm --examine /dev/sdb
mdadm: Unknown keyword INACTIVE-ARRAY
/dev/sdb:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : adca0e63:cab31818:88897fe9:efa339fd
Name : NASPerso:Partages
Creation Time : Sat Oct 11 18:04:24 2014
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 5860271024 (2794.40 GiB 3000.46 GB)
Array Size : 5860270080 (5588.79 GiB 6000.92 GB)
Used Dev Size : 5860270080 (2794.39 GiB 3000.46 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
Unused Space : before=262056 sectors, after=944 sectors
State : clean
Device UUID : 8950b10e:cbebb1c8:5cef3495:f01a0380
Update Time : Wed Apr 5 23:47:48 2017
Bad Block Log : 512 entries available at offset 72 sectors
Checksum : f6c0441c - correct
Events : 235868
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 0
Array State : A.. ('A' == active, '.' == missing, 'R' == replacing)
mdadm --examine /dev/sdc
mdadm: Unknown keyword INACTIVE-ARRAY
mdadm: No md superblock detected on /dev/sdc.
mdadm --examine /dev/sdd
mdadm: Unknown keyword INACTIVE-ARRAY
mdadm: No md superblock detected on /dev/sdd.
Dernière modification par bobregman (Le 09/06/2017, à 09:40)
Hors ligne
#2 Le 09/06/2017, à 00:07
- Bougron
Re : Raid 5 Inactive
Bonsoir
Dans un premier temps, peux-tu regarder l'état physique de ces trois disques
sudo smartctl -s on -a /dev/sdb
sudo smartctl -s on -a /dev/sdc
sudo smartctl -s on -a /dev/sdd
Donnes aussi le retour de
sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
Dernière modification par Bougron (Le 09/06/2017, à 00:10)
Hors ligne
#3 Le 09/06/2017, à 10:31
- bobregman
Re : Raid 5 Inactive
Merci d'avance de ton aide
Voici ce que renvoie les commandes
sudo smartctl -s on -a /dev/sdb
smartctl 6.5 2016-01-24 r4214 [x86_64-linux-4.4.0-62-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Seagate NAS HDD
Device Model: ST3000VN000-1HJ166
Serial Number: W730A1HP
LU WWN Device Id: 5 000c50 09aca3f16
Firmware Version: SC60
User Capacity: 3 000 592 982 016 bytes [3,00 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Rotation Rate: 5900 rpm
Form Factor: 3.5 inches
Device is: In smartctl database [for details use: -P show]
ATA Version is: ACS-2, ACS-3 T13/2161-D revision 3b
SATA Version is: SATA 3.1, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is: Fri Jun 9 10:27:25 2017 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: ( 107) seconds.
Offline data collection
capabilities: (0x73) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
No Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 1) minutes.
Extended self-test routine
recommended polling time: ( 390) minutes.
Conveyance self-test routine
recommended polling time: ( 2) minutes.
SCT capabilities: (0x10bd) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x000f 117 100 006 Pre-fail Always - 149363424
3 Spin_Up_Time 0x0003 097 097 000 Pre-fail Always - 0
4 Start_Stop_Count 0x0032 100 100 020 Old_age Always - 4
5 Reallocated_Sector_Ct 0x0033 100 100 010 Pre-fail Always - 0
7 Seek_Error_Rate 0x000f 100 253 030 Pre-fail Always - 8357
9 Power_On_Hours 0x0032 094 094 000 Old_age Always - 5323
10 Spin_Retry_Count 0x0013 100 100 097 Pre-fail Always - 0
12 Power_Cycle_Count 0x0032 100 100 020 Old_age Always - 35
184 End-to-End_Error 0x0032 100 100 099 Old_age Always - 0
187 Reported_Uncorrect 0x0032 100 100 000 Old_age Always - 0
188 Command_Timeout 0x0032 100 100 000 Old_age Always - 0
189 High_Fly_Writes 0x003a 082 082 000 Old_age Always - 18
190 Airflow_Temperature_Cel 0x0022 072 068 045 Old_age Always - 28 (Min/Max 28/28)
191 G-Sense_Error_Rate 0x0032 100 100 000 Old_age Always - 0
192 Power-Off_Retract_Count 0x0032 100 100 000 Old_age Always - 9
193 Load_Cycle_Count 0x0032 100 100 000 Old_age Always - 47
194 Temperature_Celsius 0x0022 028 040 000 Old_age Always - 28 (0 24 0 0 0)
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0010 100 100 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x003e 200 200 000 Old_age Always - 0
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
No self-tests have been logged. [To run self-tests, use: smartctl -t]
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
sudo smartctl -s on -a /dev/sdc
smartctl 6.5 2016-01-24 r4214 [x86_64-linux-4.4.0-62-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: SAMSUNG SpinPoint F1 DT
Device Model: SAMSUNG HD103UJ
Serial Number: S13PJDWQC36360
LU WWN Device Id: 5 0000f0 000c9f981
Firmware Version: 1AA01113
User Capacity: 1 000 204 886 016 bytes [1,00 TB]
Sector Size: 512 bytes logical/physical
Device is: In smartctl database [for details use: -P show]
ATA Version is: ATA/ATAPI-7, ATA8-ACS T13/1699-D revision 3b
Local Time is: Fri Jun 9 10:28:57 2017 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: (11962) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 200) minutes.
Conveyance self-test routine
recommended polling time: ( 21) minutes.
SCT capabilities: (0x003f) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x000f 100 100 051 Pre-fail Always - 0
3 Spin_Up_Time 0x0007 077 077 011 Pre-fail Always - 7870
4 Start_Stop_Count 0x0032 090 090 000 Old_age Always - 10152
5 Reallocated_Sector_Ct 0x0033 100 100 010 Pre-fail Always - 0
7 Seek_Error_Rate 0x000f 100 100 051 Pre-fail Always - 0
8 Seek_Time_Performance 0x0025 100 100 015 Pre-fail Offline - 0
9 Power_On_Hours 0x0032 097 097 000 Old_age Always - 15787
10 Spin_Retry_Count 0x0033 100 100 051 Pre-fail Always - 2
11 Calibration_Retry_Count 0x0012 100 100 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 099 099 000 Old_age Always - 765
13 Read_Soft_Error_Rate 0x000e 100 100 000 Old_age Always - 0
183 Runtime_Bad_Block 0x0032 100 100 000 Old_age Always - 51
184 End-to-End_Error 0x0033 100 100 000 Pre-fail Always - 0
187 Reported_Uncorrect 0x0032 100 100 000 Old_age Always - 0
188 Command_Timeout 0x0032 100 100 000 Old_age Always - 0
190 Airflow_Temperature_Cel 0x0022 070 044 000 Old_age Always - 30 (Min/Max 29/30)
194 Temperature_Celsius 0x0022 067 042 000 Old_age Always - 33 (0 24 33 29 0)
195 Hardware_ECC_Recovered 0x001a 100 100 000 Old_age Always - 14802758
196 Reallocated_Event_Count 0x0032 100 100 000 Old_age Always - 0
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0030 100 100 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x003e 100 100 000 Old_age Always - 59
200 Multi_Zone_Error_Rate 0x000a 100 100 000 Old_age Always - 0
201 Soft_Read_Error_Rate 0x000a 100 100 000 Old_age Always - 0
SMART Error Log Version: 1
ATA Error Count: 9 (device log contains only the most recent five errors)
CR = Command Register [HEX]
FR = Features Register [HEX]
SC = Sector Count Register [HEX]
SN = Sector Number Register [HEX]
CL = Cylinder Low Register [HEX]
CH = Cylinder High Register [HEX]
DH = Device/Head Register [HEX]
DC = Device Command Register [HEX]
ER = Error register [HEX]
ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.
Error 9 occurred at disk power-on lifetime: 0 hours (0 days + 0 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
00 d0 01 01 00 00 00 at LBA = 0x00000001 = 1
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
40 00 01 01 00 00 00 00 22:10:05.730 READ VERIFY SECTOR(S)
e0 00 00 00 00 00 00 00 22:10:04.850 STANDBY IMMEDIATE
e7 00 00 00 00 00 00 00 22:10:04.850 FLUSH CACHE
ea 00 00 00 00 00 00 00 22:10:04.850 FLUSH CACHE EXT
ec 00 00 00 00 00 00 00 21:48:53.370 IDENTIFY DEVICE
Error 8 occurred at disk power-on lifetime: 0 hours (0 days + 0 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
00 d0 01 01 00 00 00 at LBA = 0x00000001 = 1
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
40 00 01 01 00 00 00 00 03:34:28.730 READ VERIFY SECTOR(S)
e0 00 00 00 00 00 00 00 03:34:27.860 STANDBY IMMEDIATE
e7 00 00 00 00 00 00 00 03:34:27.860 FLUSH CACHE
ea 00 00 00 00 00 00 00 03:34:27.860 FLUSH CACHE EXT
ec 00 00 00 00 00 00 00 03:14:22.350 IDENTIFY DEVICE
Error 7 occurred at disk power-on lifetime: 0 hours (0 days + 0 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
00 d0 01 01 00 00 00 at LBA = 0x00000001 = 1
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
40 00 01 01 00 00 00 00 02:14:21.950 READ VERIFY SECTOR(S)
e0 00 00 00 00 00 00 00 02:14:21.060 STANDBY IMMEDIATE
e7 00 00 00 00 00 00 00 02:14:21.060 FLUSH CACHE
ea 00 00 00 00 00 00 00 02:14:21.060 FLUSH CACHE EXT
b0 d0 00 00 4f c2 63 00 02:01:16.390 SMART READ DATA
Error 6 occurred at disk power-on lifetime: 0 hours (0 days + 0 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
00 d0 01 01 00 00 00 at LBA = 0x00000001 = 1
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
40 00 01 01 00 00 00 00 01:46:09.700 READ VERIFY SECTOR(S)
e0 00 00 00 00 00 00 00 01:46:08.820 STANDBY IMMEDIATE
e7 00 00 00 00 00 00 00 01:46:08.820 FLUSH CACHE
ea 00 00 00 00 00 00 00 01:46:08.820 FLUSH CACHE EXT
ec 00 00 00 00 00 00 00 01:11:13.090 IDENTIFY DEVICE
Error 5 occurred at disk power-on lifetime: 0 hours (0 days + 0 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
00 d0 01 01 00 00 00 at LBA = 0x00000001 = 1
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
40 00 01 01 00 00 00 00 01:50:42.960 READ VERIFY SECTOR(S)
e0 00 00 00 00 00 00 00 01:50:42.090 STANDBY IMMEDIATE
e7 00 00 00 00 00 00 00 01:50:42.090 FLUSH CACHE
ea 00 00 00 00 00 00 00 01:50:42.090 FLUSH CACHE EXT
ec 00 00 00 00 00 00 00 01:29:23.490 IDENTIFY DEVICE
SMART Self-test log structure revision number 1
No self-tests have been logged. [To run self-tests, use: smartctl -t]
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
sudo smartctl -s on -a /dev/sdd
smartctl 6.5 2016-01-24 r4214 [x86_64-linux-4.4.0-62-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: SAMSUNG SpinPoint F1 DT
Device Model: SAMSUNG HD103UJ
Serial Number: S13PJ1CQ711990
LU WWN Device Id: 5 0000f0 008179109
Firmware Version: 1AA01112
User Capacity: 1 000 204 886 016 bytes [1,00 TB]
Sector Size: 512 bytes logical/physical
Device is: In smartctl database [for details use: -P show]
ATA Version is: ATA/ATAPI-7, ATA8-ACS T13/1699-D revision 3b
Local Time is: Fri Jun 9 10:29:51 2017 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
General SMART Values:
Offline data collection status: (0x00) Offline data collection activity
was never started.
Auto Offline Data Collection: Disabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: (11736) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 2) minutes.
Extended self-test routine
recommended polling time: ( 196) minutes.
Conveyance self-test routine
recommended polling time: ( 21) minutes.
SCT capabilities: (0x003f) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x000f 100 100 051 Pre-fail Always - 0
3 Spin_Up_Time 0x0007 075 075 011 Pre-fail Always - 8280
4 Start_Stop_Count 0x0032 091 091 000 Old_age Always - 8749
5 Reallocated_Sector_Ct 0x0033 100 100 010 Pre-fail Always - 0
7 Seek_Error_Rate 0x000f 100 100 051 Pre-fail Always - 0
8 Seek_Time_Performance 0x0025 100 100 015 Pre-fail Offline - 0
9 Power_On_Hours 0x0032 096 096 000 Old_age Always - 22357
10 Spin_Retry_Count 0x0033 100 100 051 Pre-fail Always - 0
11 Calibration_Retry_Count 0x0012 100 100 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 099 099 000 Old_age Always - 929
13 Read_Soft_Error_Rate 0x000e 100 100 000 Old_age Always - 0
183 Runtime_Bad_Block 0x0032 100 100 000 Old_age Always - 0
184 End-to-End_Error 0x0033 100 100 099 Pre-fail Always - 0
187 Reported_Uncorrect 0x0032 100 100 000 Old_age Always - 0
188 Command_Timeout 0x0032 100 100 000 Old_age Always - 0
190 Airflow_Temperature_Cel 0x0022 070 050 000 Old_age Always - 30 (Min/Max 29/30)
194 Temperature_Celsius 0x0022 067 047 000 Old_age Always - 33 (0 27 33 29 0)
195 Hardware_ECC_Recovered 0x001a 100 100 000 Old_age Always - 30790
196 Reallocated_Event_Count 0x0032 100 100 000 Old_age Always - 0
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0030 100 100 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x003e 100 100 000 Old_age Always - 1
200 Multi_Zone_Error_Rate 0x000a 100 100 000 Old_age Always - 0
201 Soft_Read_Error_Rate 0x000a 253 253 000 Old_age Always - 0
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 0
Warning: ATA Specification requires self-test log structure revision number = 1
No self-tests have been logged. [To run self-tests, use: smartctl -t]
SMART Selective self-test log data structure revision number 0
Note: revision number not 1 implies that no selective self-test has ever been run
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
Resultat j'ai l'impression qu'il y a un probleme sur /dev/sdc lol
sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
SIZE NAME FSTYPE LABEL MOUNTPOINT
465,8G sda
461,8G ├─sda1 ext4 /
1K ├─sda2
4G └─sda5 swap [SWAP]
2,7T sdb linux_raid_member NASPerso:Partages
931,5G sdc
931,5G └─sdc1 linux_raid_member NASPerso:0
931,4G └─md0 ext4
931,5G sdd
931,5G └─sdd1 linux_raid_member NASPerso:0
931,4G └─md0 ext4
Voila merci d'avance si tu arrive a m'eclairer un peu plus
Hors ligne
#4 Le 09/06/2017, à 12:56
- Bougron
Re : Raid 5 Inactive
Bonjour
Je ne connais pas trop le raids
Tes trois disques sont en très bon état
Pour avoir une vue d'ensemble, peux-tu donner le résultat des commandes
mdadm --detail /dev/sdb
mdadm --detail /dev/sdc1
mdadm --detail /dev/sdd1
mdadm --detail /dev/sd[bcd]1
Dernière modification par Bougron (Le 12/06/2017, à 23:02)
Hors ligne
#5 Le 09/06/2017, à 13:58
- MicP
Re : Raid 5 Inactive
Bonjour
Je trouve bizarre
Disque /dev/sdb : 2,7 TiB, 3000592982016 octets, 5860533168 secteurs Unités : sectors of 1 * 512 = 512 octets Sector size (logical/physical): 512 bytes / 4096 bytes I/O size (minimum/optimal): 4096 bytes / 4096 bytes Disklabel type: dos Disk identifier: 0x52096da7 Périphérique Amorçage Start Fin Secteurs Size Id Type /dev/sdb1 2048 4294967294 4294965247 2T 83 Linux
qu'un disque de plus de 2.2To utilise une table des partitions de type msdos
Il aurait fallu utiliser un MBR de type GPT
d'autant que, plus loin, la commande lsblk
SIZE NAME FSTYPE LABEL MOUNTPOINT 465,8G sda 461,8G ├─sda1 ext4 / 1K ├─sda2 4G └─sda5 swap [SWAP] 2,7T sdb linux_raid_member NASPerso:Partages 931,5G sdc 931,5G └─sdc1 linux_raid_member NASPerso:0 931,4G └─md0 ext4 931,5G sdd 931,5G └─sdd1 linux_raid_member NASPerso:0 931,4G └─md0 ext4
semble indiquer que ce serait le disque entier qui est utilisé pour le RAID
=======
mdadm: /dev/sdb does not appear to be an md device
Il aurait peut-être fallu indiquer à la commande mdadm d'utiliser /dev/sdb1 plutôt que /dev/sdb
mdadm --detail /dev/sdb1
Dernière modification par MicP (Le 09/06/2017, à 14:08)
Hors ligne
#6 Le 12/06/2017, à 22:56
- bobregman
Re : Raid 5 Inactive
Bonsoir,
Déjà je comence par vous remercier pour votre aides
Voici les résultats des commandes
mdadm --detail /dev/sdb1
mdadm --detail /dev/sd[bc]1
mdadm: cannot open /dev/sdb1: No such file or directory
mdadm --detail /dev/sdb c d
mdadm: /dev/sdb does not appear to be an md device
Voilà merci et désolé pour le temps de réponse
Encore merci
Hors ligne
#7 Le 12/06/2017, à 23:03
- Bougron
Re : Raid 5 Inactive
et pour mes commandes
mdadm --detail /dev/sdc1
mdadm --detail /dev/sdd1
!!!!
Hors ligne
#8 Le 12/06/2017, à 23:08
- bobregman
Re : Raid 5 Inactive
Bonsoir
Idem que pour sdb1 mais j'ai crée le Raid avec sdd sdc sdb et non avec sdb1 etc
Merci beaucoup
Hors ligne
#9 Le 14/06/2017, à 09:24
- Bougron
Re : Raid 5 Inactive
Bonjour.
Je suis trop néophyte sur le sujet.
Certainement du boulot pour Jamesbad000.
Dernière modification par Bougron (Le 14/06/2017, à 09:29)
Hors ligne
#10 Le 14/06/2017, à 21:44
- jamesbad000
Re : Raid 5 Inactive
Bonsoir
j'ai crée le Raid avec sdd sdc sdb et non avec sdb1 etc
Ca ne colle pas bien avec le résultat du lsblk, qui est par ailleurs tronqué.
sdd1 et sdc1 sont associées sur un même volume qui est actif. En revanche sdb est bien un morceau d'un volume raid distinct...
Peux-tu fournir le retour complet de la commande lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT avec tous les disques... (et d'une façon générale, pour la suite, retourner le contenu du terminal d'un bloc, comprenant les commandes indiquées et le résultat complet)
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#11 Le 14/06/2017, à 23:14
- jamesbad000
Re : Raid 5 Inactive
En fait 2 disques de 2,7 To manquent systématiquement à l'appel.
Dans le 1er post il y a :
Disque /dev/sdb : 2,7 TiB
Disque /dev/sda : 465,8 GiB
Disque /dev/sde : 931,5 GiB
Disque /dev/sdf : 931,5 GiB
et ensuite dans le lsblk sde et f sont devenus sdc et d...
Donc soit ils ont été éliminés à tort des résultats, soit ils ne sont pas connectés (cable USB, SATA, IDE ?) ou pas sous tension, soit ils ne sont pas reconnus.
Je trouve bizarre
(...)
qu'un disque de plus de 2.2To utilise une table des partitions de type msdos
Cette table de partition est un leurre.
Elle a probablement été créée après le raid (avant je pense qu'elle aurait été effacée lors de la construction du raid) et est sans effet => On voit dans le résultat de mdadm --examine /dev/sdb qu'il s'agit d'un raid version 1.2. Dans ce cas, les métadonnées raid commencent à 4 K du début du volume et peuvent cohabiter avec une table de partition.
Mais vu qu'il n'y a aucun système de fichier reconnu dans cette partition, le kernel donne priorité à la reconnaissance du raid. Comme on le voit dans le résultat du lsblk.
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#12 Le 15/06/2017, à 21:34
- bobregman
Re : Raid 5 Inactive
Bonsoir JamesBad000
Merci beaucoup pour ton aide
voici le retour de la ligne de commande demandée
sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
SIZE NAME FSTYPE LABEL MOUNTPOINT
465,8G sda
461,8G ├─sda1 ext4 /
1K ├─sda2
4G └─sda5 swap [SWAP]
2,7T sdb linux_raid_member NASPerso:Partages
2,7T sdc linux_raid_member NASPerso:Partages
2,7T sdd linux_raid_member NASPerso:Partages
931,5G sde
931,5G └─sde1 linux_raid_member NASPerso:0
931,4G └─md0 ext4
931,5G sdf
931,5G └─sdf1 linux_raid_member NASPerso:0
931,4G └─md0 ext4
sudo lsblk /dev/sda
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 465,8G 0 disk
├─sda1 8:1 0 461,8G 0 part /
├─sda2 8:2 0 1K 0 part
└─sda5 8:5 0 4G 0 part [SWAP]
sudo lsblk /dev/sdb
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sdb 8:16 0 2,7T 0 disk
sudo lsblk /dev/sdc
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sdc 8:32 0 2,7T 0 disk
sudo lsblk /dev/sdd
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sdd 8:48 0 2,7T 0 disk
sudo lsblk /dev/sde
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sde 8:64 0 931,5G 0 disk
└─sde1 8:65 0 931,5G 0 part
└─md0 9:0 0 931,4G 0 raid1
sudo lsblk /dev/sdf
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sdf 8:80 0 931,5G 0 disk
└─sdf1 8:81 0 931,5G 0 part
└─md0 9:0 0 931,4G 0 raid1
sudo lsblk /dev/md0
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
md0 9:0 0 931,4G 0 raid1
sudo lsblk /dev/md127
ne renvoie rien
Merci d'avance pour votre aides
Hors ligne
#13 Le 15/06/2017, à 22:40
- jamesbad000
Re : Raid 5 Inactive
Bon les 3 disques qui constituent le second raid sont bien là. Mais non assemblés.
Reste à savoir pourquoi.
ls -l /dev/disk/by-id/
sudo mdadm -E /dev/sd[bcd]
sudo mdadm -A -v /dev/md1 /dev/sd[bcd]
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#14 Le 18/06/2017, à 15:07
- bobregman
Re : Raid 5 Inactive
Bonjour désolé du temps de réponse mais en ce moment je suis en plein bricolage
Juste pour peut être aider.
Quand je démarre mon PC il reste longtemps bloquer sur une de deux images que je vous joints.
En gros il galère a trouver les disque il y en a toujours un qu'il trouve pas dans les disque en esclaves (donc un des 3To) les deux de 1To sont sur un port Sata en PCie
Attention ! Images très volumineuses, total supérieur à 8 Mo.
Voici les réponses a tes commandes JamesBad000
ls -l /dev/disk/by-id/
total 0
lrwxrwxrwx 1 root root 9 juin 18 14:56 ata-Hitachi_HTS545050A7E380_TE95113QJUK3TP -> ../../sda
lrwxrwxrwx 1 root root 10 juin 18 14:56 ata-Hitachi_HTS545050A7E380_TE95113QJUK3TP-part1 -> ../../sda1
lrwxrwxrwx 1 root root 10 juin 18 14:56 ata-Hitachi_HTS545050A7E380_TE95113QJUK3TP-part2 -> ../../sda2
lrwxrwxrwx 1 root root 10 juin 18 14:56 ata-Hitachi_HTS545050A7E380_TE95113QJUK3TP-part5 -> ../../sda5
lrwxrwxrwx 1 root root 9 juin 18 14:56 ata-SAMSUNG_HD103UJ_S13PJ1CQ711990 -> ../../sdd
lrwxrwxrwx 1 root root 10 juin 18 14:56 ata-SAMSUNG_HD103UJ_S13PJ1CQ711990-part1 -> ../../sdd1
lrwxrwxrwx 1 root root 9 juin 18 14:56 ata-SAMSUNG_HD103UJ_S13PJDWQC36360 -> ../../sdc
lrwxrwxrwx 1 root root 10 juin 18 14:56 ata-SAMSUNG_HD103UJ_S13PJDWQC36360-part1 -> ../../sdc1
lrwxrwxrwx 1 root root 9 juin 18 14:56 ata-ST3000VN000-1HJ166_W730A1HP -> ../../sdb
lrwxrwxrwx 1 root root 9 juin 18 14:56 md-name-NASPerso:0 -> ../../md0
lrwxrwxrwx 1 root root 9 juin 18 14:56 md-uuid-996ffe8b:2bfa3038:abe1706a:a8b1e684 -> ../../md0
lrwxrwxrwx 1 root root 9 juin 18 14:56 wwn-0x50000f0000c9f981 -> ../../sdc
lrwxrwxrwx 1 root root 10 juin 18 14:56 wwn-0x50000f0000c9f981-part1 -> ../../sdc1
lrwxrwxrwx 1 root root 9 juin 18 14:56 wwn-0x50000f0008179109 -> ../../sdd
lrwxrwxrwx 1 root root 10 juin 18 14:56 wwn-0x50000f0008179109-part1 -> ../../sdd1
lrwxrwxrwx 1 root root 9 juin 18 14:56 wwn-0x5000c5009aca3f16 -> ../../sdb
lrwxrwxrwx 1 root root 9 juin 18 14:56 wwn-0x5000cca654e7cc8f -> ../../sda
lrwxrwxrwx 1 root root 10 juin 18 14:56 wwn-0x5000cca654e7cc8f-part1 -> ../../sda1
lrwxrwxrwx 1 root root 10 juin 18 14:56 wwn-0x5000cca654e7cc8f-part2 -> ../../sda2
lrwxrwxrwx 1 root root 10 juin 18 14:56 wwn-0x5000cca654e7cc8f-part5 -> ../../sda5
sudo mdadm -E /dev/sd[bcd]
/dev/sdb:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : adca0e63:cab31818:88897fe9:efa339fd
Name : NASPerso:Partages
Creation Time : Sat Oct 11 18:04:24 2014
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 5860271024 (2794.40 GiB 3000.46 GB)
Array Size : 5860270080 (5588.79 GiB 6000.92 GB)
Used Dev Size : 5860270080 (2794.39 GiB 3000.46 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
Unused Space : before=262056 sectors, after=944 sectors
State : clean
Device UUID : 8950b10e:cbebb1c8:5cef3495:f01a0380
Update Time : Wed Apr 5 23:47:48 2017
Bad Block Log : 512 entries available at offset 72 sectors
Checksum : f6c0441c - correct
Events : 235868
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 0
Array State : A.. ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdc:
MBR Magic : aa55
Partition[0] : 1953523120 sectors at 2048 (type 83)
/dev/sdd:
MBR Magic : aa55
Partition[0] : 1953523120 sectors at 2048 (type 83)
sudo mdadm -A -v /dev/md1 /dev/sd[bcd]
mdadm: looking for devices for /dev/md1
mdadm: /dev/sdb is busy - skipping
mdadm: Cannot assemble mbr metadata on /dev/sdc
mdadm: /dev/sdc has no superblock - assembly aborted
Voici une autre commande essauyé
sudo mdadm -A -v /dev/md127 /dev/sdb /dev/sdc1 /dev/sdd1
mdadm: looking for devices for /dev/md127
mdadm: /dev/sdb is busy - skipping
mdadm: /dev/sdc1 is busy - skipping
mdadm: /dev/sdd1 is busy - skipping
Merci d'avance pour votre aides
Modération : merci d'utiliser des images de petite taille (300x300) ou des miniatures pointant sur ces images (Des hébergeurs comme Toile Libre, TDCT'Pix et hostingpics le permettent).
Dernière modification par bobregman (Le 18/06/2017, à 17:44)
Hors ligne
#15 Le 18/06/2017, à 23:11
- jamesbad000
Re : Raid 5 Inactive
En gros il galère a trouver les disque il y en a toujours un qu'il trouve pas dans les disque en esclaves (donc un des 3To)
Il aurait fallu commencer par là.
C'est peine perdu d'essayer de remonter ce raid si les disques disparaissent régulièrement.
(La il manque encore 2 disques sur 3)
Ces disques sont habituellement connectés sur ce PC ?
Quelle est la puissance et la marque de l'alimentation électrique ?
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#16 Le 19/06/2017, à 00:04
- bobregman
Re : Raid 5 Inactive
Encore merci de suivre le sujet
Je n'ai rien changer sur le PC et avant que je réinstalle tout ca marchait.
Je vais changer les nappes sata.
Mon alim et une 750w antec.
Je ferais ca demain soir merci
Hors ligne
#17 Le 19/06/2017, à 11:52
- jamesbad000
Re : Raid 5 Inactive
En tout cas, ce n'est pas la réinstallation qui est la cause de ce défaut de détection des disques par le bios.
Par ailleurs avant de faire quelque manip que ce soit sur tes disques, prend la peine de vérifier qu'il sont là avec
sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
il doivent apparaitre comme ceci.
2,7T sdb linux_raid_member NASPerso:Partages
2,7T sdc linux_raid_member NASPerso:Partages
2,7T sdd linux_raid_member NASPerso:Partages
éventuellement les device (sdb,sdc,sdd) peuvent être différents mais les bon disques sont clairement identifiables par le nom du volume raid "NASPerso:Partages"
Et inutile d'insister à assembler des partitions (sdc1 sdd1). Ce volume raid n'utilise pas des disques partitionnés comme le montre clairement le résultat du lsblk. C'est l'autre volume raid "NASPerso:0" qui utilise des partitions
931,5G sde
931,5G └─sde1 linux_raid_member NASPerso:0
931,4G └─md0 ext4
931,5G sdf
931,5G └─sdf1 linux_raid_member NASPerso:0
931,4G └─md0 ext4
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#18 Le 19/06/2017, à 15:41
- bobregman
Re : Raid 5 Inactive
Bonjour,
encore merci vraiment de suivre se sujet et de continue a prendre du temps a le resoudre.
voici les résultats des commandes demandée
sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
SIZE NAME FSTYPE LABEL MOUNTPOINT
465,8G sda
461,8G ├─sda1 ext4 /
1K ├─sda2
4G └─sda5 swap [SWAP]
2,7T sdb linux_raid_member NASPerso:Partages
931,5G sdc
931,5G └─sdc1 linux_raid_member NASPerso:0
931,4G └─md0 ext4
931,5G sdd
931,5G └─sdd1 linux_raid_member NASPerso:0
931,4G └─md0 ext4
il en voit bien que un.
Je vais fermer tout et vérifier en débranchant tous sauf les 3 disque et le disque système voir.
Edit :
Après avoir tout débrancher rebrancher seulement les trois disque du raid 5 + le disque système, lecteur CD débranché et idem pour les deux disque en raid 1 etc.
au démarrage seulement 2 disques sont reconnu sur les 3 du raid5 et le disque systeme.
La commande ci dessus donne
SIZE NAME FSTYPE LABEL MOUNTPOINT
465,8G sda
461,8G ├─sda1 ext4 /
1K ├─sda2
4G └─sda5 swap [SWAP]
2,7T sdb linux_raid_member NASPerso:Partages
Je dois partir mais je vais essayé de changer les nappes sata se soir.
2 Nappe Sata changer sur 3 et toujours le même résultat qu'au dessus
Merci d'avance encore
Dernière modification par bobregman (Le 19/06/2017, à 16:29)
Hors ligne
#19 Le 19/06/2017, à 22:34
- jamesbad000
Re : Raid 5 Inactive
2 Nappe Sata changer sur 3 et toujours le même résultat qu'au dessus
Juste pour éclaircir un peu les choses : Ca fait 2 fois que tu parles de changer les nappes sata
Alors que plus haut (et en conformité avec ce qui apparait dans les captures d'écran lors du démarrage du bios)
il est question de disques esclaves ==> Il s'agit donc d'IDE et non de sata.
Du coup, je ne vois pas comment il pourrait y avoir 3 Nappes à changer, vu que sur l'ide il y 2 disques par nappes.
J'ajoute qu'il me semble que c'est plus le second port IDE qui est en cause que les disques esclaves sur chacun des 2 ports
Car dans le résultat de ls /dev/disk/by-id :
ata-ST3000VN000-1HJ166_W730A1HP -> ../../sdb
on voit que le n° de série du disque sdb correspond à celui du disque esclave sur le 1er port dans la photo d'écran !
Dernière modification par jamesbad000 (Le 19/06/2017, à 22:35)
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#20 Le 19/06/2017, à 23:19
- bobregman
Re : Raid 5 Inactive
Re bonsoir,
Je confirme mes disques sont bien tous en Sata la seul chose qui est en IDE dans ce PC est le Lecteur de CD
Pour éclaircir les chose :
dans ce PC
j'ai une carte mer GM41 Combo de Gigabyte avec 4 port sata intégré a la carte mère (1 DD 500Gopour le système et 3 DD 3To pour raid 5) et une carte Sata en PCi avec 2port sata et 2port sata externe sur laquelle 2DD 1To en Raid1.
J'ai donc changer mes nappes Sata voir si elle étaient défectueuses et en faisant des manip j'ai brancher les 2DD 3To sur la carte Sata PCi et cette fois deux disque sont reconnus. Donc je commence plancher sur une carte mère défectueuse a voir j'essaie plusieurs branchement.
Edit 23h30
Je pense que un disque crotte car quand j'en enlève 1 le PC démarre sans soucis détecte les 3 disque brancher (1DDsysteme + 2DD 3To)
sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
SIZE NAME FSTYPE LABEL MOUNTPOINT
465,8G sda
461,8G ├─sda1 ext4 /
1K ├─sda2
4G └─sda5 swap [SWAP]
2,7T sdb linux_raid_member NASPerso:Partages
2,7T sdc linux_raid_member NASPerso:Partages
sudo mdadm --detail /dev/md127
/dev/md127:
Version : 1.2
Raid Level : raid0
Total Devices : 2
Persistence : Superblock is persistent
State : inactive
Name : NASPerso:Partages
UUID : adca0e63:cab31818:88897fe9:efa339fd
Events : 235868
Number Major Minor RaidDevice
- 8 16 - /dev/sdb
- 8 32 - /dev/sdc
Je débranche un disque et le remplace par le dernier disque et Hop le PC démarre très lentement et recherche de l'IDE de plus il détecte qu'un seul disque 3To sur 2.
Je viens aussi de changer la prise alim avec une prise alim qui marche de sur. et idem PC lent et un seul disque détecter sur les 2 3To.
est ce qu'il est possible d'activer mon raid 5 avec 2 disques seulement (je crois avoir déjà vu ça quelques part, je vais rechercher ici https://wiki.debian-fr.xyz/Raid_logiciel_(mdadm)) ensuite sortir le disque défaillant ou surement dans un mauvais format (j’espère lol), le formater et le réintégrer ?? Normalement tous ca devrais pouvoir se faire sans perdre de données ?
encore merci vraiment car ca avance hihihi
Dernière modification par bobregman (Le 19/06/2017, à 23:53)
Hors ligne
#21 Le 20/06/2017, à 00:15
- jamesbad000
Re : Raid 5 Inactive
est ce qu'il est possible d'activer mon raid 5 avec 2 disques seulement
Oui. Heureusement, sinon ça ne servirait à rien d'avoir 3 disques avec la capacité de seulement 2.
ensuite sortir le disque défaillant ou surement dans un mauvais format (j’espère lol), le formater
Ca part contre tu peux oublier. Le bios ignore tout du formatage, et il n'y a aucune chance qu'un tel problème est un effet sur la détection du disque.
Bon on reprend dans l'ordre (en supposant que les disques sont toujours bien en sdb/sdc, autrement tu adaptes en fonction de ce que dit lsblk, et tu peux t'abstenir de faire des tentatives avec des n° de partitions.
sudo ls -l /dev/disk/by-id
sudo mdadm -E /dev/sd[bc]
sudo mdadm -A -v -R /dev/md1 /dev/sd[bc]
PS: et oublie un peu ton md127...
Edit : Ajout du paramètre -R sur mdadm, pour que puisse démarrer avec un disque de moins
Dernière modification par jamesbad000 (Le 20/06/2017, à 00:22)
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#22 Le 20/06/2017, à 00:27
- bobregman
Re : Raid 5 Inactive
Voici le retour des commandes
sudo ls -l /dev/disk/by-id
[sudo] Mot de passe de mcfly :
total 0
lrwxrwxrwx 1 root root 9 juin 19 23:45 ata-Hitachi_HTS545050A7E380_TE95113QJUK3TP -> ../../sda
lrwxrwxrwx 1 root root 10 juin 19 23:45 ata-Hitachi_HTS545050A7E380_TE95113QJUK3TP-part1 -> ../../sda1
lrwxrwxrwx 1 root root 10 juin 19 23:45 ata-Hitachi_HTS545050A7E380_TE95113QJUK3TP-part2 -> ../../sda2
lrwxrwxrwx 1 root root 10 juin 19 23:45 ata-Hitachi_HTS545050A7E380_TE95113QJUK3TP-part5 -> ../../sda5
lrwxrwxrwx 1 root root 9 juin 19 23:45 ata-ST3000DM001-1E6166_W1F4ACSB -> ../../sdc
lrwxrwxrwx 1 root root 9 juin 19 23:45 ata-ST3000VN000-1HJ166_W730A1HP -> ../../sdb
lrwxrwxrwx 1 root root 9 juin 19 23:45 wwn-0x5000c5006e5f13a9 -> ../../sdc
lrwxrwxrwx 1 root root 9 juin 19 23:45 wwn-0x5000c5009aca3f16 -> ../../sdb
lrwxrwxrwx 1 root root 9 juin 19 23:45 wwn-0x5000cca654e7cc8f -> ../../sda
lrwxrwxrwx 1 root root 10 juin 19 23:45 wwn-0x5000cca654e7cc8f-part1 -> ../../sda1
lrwxrwxrwx 1 root root 10 juin 19 23:45 wwn-0x5000cca654e7cc8f-part2 -> ../../sda2
lrwxrwxrwx 1 root root 10 juin 19 23:45 wwn-0x5000cca654e7cc8f-part5 -> ../../sda5
mcfly@mcflyperso:~$ sudo mdadm -E /dev/sd[bc]
/dev/sdb:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : adca0e63:cab31818:88897fe9:efa339fd
Name : NASPerso:Partages
Creation Time : Sat Oct 11 18:04:24 2014
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 5860271024 (2794.40 GiB 3000.46 GB)
Array Size : 5860270080 (5588.79 GiB 6000.92 GB)
Used Dev Size : 5860270080 (2794.39 GiB 3000.46 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
Unused Space : before=262056 sectors, after=944 sectors
State : clean
Device UUID : 8950b10e:cbebb1c8:5cef3495:f01a0380
Update Time : Wed Apr 5 23:47:48 2017
Bad Block Log : 512 entries available at offset 72 sectors
Checksum : f6c0441c - correct
Events : 235868
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 0
Array State : A.. ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdc:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : adca0e63:cab31818:88897fe9:efa339fd
Name : NASPerso:Partages
Creation Time : Sat Oct 11 18:04:24 2014
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 5860271024 (2794.40 GiB 3000.46 GB)
Array Size : 5860270080 (5588.79 GiB 6000.92 GB)
Used Dev Size : 5860270080 (2794.39 GiB 3000.46 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
Unused Space : before=262064 sectors, after=944 sectors
State : active
Device UUID : 31cfb02e:91aae56f:54736238:6e5ff90e
Update Time : Fri Sep 23 12:49:59 2016
Checksum : ef0f40bf - correct
Events : 126351
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 2
Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)
mcfly@mcflyperso:~$ sudo mdadm -A -v /dev/md1 /dev/sd[bc]
mdadm: looking for devices for /dev/md1
mdadm: /dev/sdb is busy - skipping
mdadm: /dev/sdc is busy - skipping
mcfly@mcflyperso:~$
sudo mdadm -A -v -R /dev/md1 /dev/sd[bc]
Idem avec le -R
Hors ligne
#23 Le 20/06/2017, à 00:35
- jamesbad000
Re : Raid 5 Inactive
Busy... Hum oui il y a une tentative d'assemblage sur md127, il faut stopper ça d'abord
sudo mdadm -S /dev/md127
sudo mdadm -A -v -R /dev/md1 /dev/sd[bc]
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#24 Le 20/06/2017, à 00:40
- bobregman
Re : Raid 5 Inactive
Voici le retour
sudo mdadm -S /dev/md127
mdadm: stopped /dev/md127
sudo mdadm -A -v -R /dev/md1 /dev/sd[bc]
mdadm: looking for devices for /dev/md1
mdadm: /dev/sdb is identified as a member of /dev/md1, slot 0.
mdadm: /dev/sdc is identified as a member of /dev/md1, slot 2.
mdadm: no uptodate device for slot 2 of /dev/md1
mdadm: added /dev/sdc to /dev/md1 as 2 (possibly out of date)
mdadm: added /dev/sdb to /dev/md1 as 0
mdadm: failed to RUN_ARRAY /dev/md1: Input/output error
mdadm: Not enough devices to start the array.
Merci
Hors ligne
#25 Le 20/06/2017, à 00:47
- jamesbad000
Re : Raid 5 Inactive
C'est ce que je craignais. Ton disque sdc est sortie du raid depuis des mois...
/dev/sdc:
(...)
Update Time : Fri Sep 23 12:49:59 2016
Events : 126351
Celui là ne sert à rien. Il est totalement désynchronisé, et ne peut en aucun cas être assemblé avec sdb...
Il faut l'autre disque
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne