Pages : 1
#1 Le 05/11/2023, à 10:26
- KIKIBIBI
Disques pleins sur Serveur Ve-Hotech Xtrem 2 RAID5 V6.1.4
Bonjour,
complètement novice en informatique pure et encoure plus en LINUX, UBUNTU,etc...
Suite à ménage de mon tél portable à mon NAS, j'ai apparemment saturé les disques.
Pas d'alerte lors de la manip. Mais plus tard (après une nuit de traitement lié au RAID ?) --> "Attention, erreur S.M.A.R.T. Le disque false est inutilisable".
Plus d'accès aux répertoires par l'icone sur le bureau: \\192.168.1.14\admin
Accès à l'interface du NAS via la navigateur : http://192.168.1.14/appboxl/ mais "erreur interne" quand je sélectionne l'explorateur de fichiers.
Onglet Utilisation disques : Occupés 100% 5,4 To - Libre 0% 0 octet ! - smbrecycle 0% 19.7 Mo
Onglet S.M.A.R.T : quand je sélectionne chacun des 4 disques, je n'ai que des OK dans la colonne "Statut". Pas de témoin rouge sur le NAS.
Je ne sais pas comment on peut mettre des screenshots ici ?
Je peux vous faire une copie des journaux mais lequel ? Syslog ci-dessous.
Bien entendu, je voudrais juste avoir à nouveau la main dessus et faire du ménage pour retrouver de la place.
Merci pour un petit coup de main
Nov 5 09:40:03 vhs-4 avahi-daemon[4372]: Registering new address record for 192.168.1.14 on br0.IPv4.
Nov 5 09:40:03 vhs-4 avahi-daemon[4372]: Registering new address record for fe80::e0bc:72ff:fec7:4cac on lxcbr0.*.
Nov 5 09:40:03 vhs-4 avahi-daemon[4372]: Registering new address record for 10.0.3.1 on lxcbr0.IPv4.
Nov 5 09:40:03 vhs-4 avahi-daemon[4372]: Registering HINFO record with values 'X86_64'/'LINUX'.
Nov 5 09:40:03 vhs-4 kernel: [ 42.069768] init: plymouth-upstart-bridge main process ended, respawning
Nov 5 09:40:03 vhs-4 kernel: [ 42.085476] init: vht/discovery main process (4537) terminated with status 2
Nov 5 09:40:03 vhs-4 kernel: [ 42.085719] init: plymouth-upstart-bridge main process (4547) terminated with status 1
Nov 5 09:40:03 vhs-4 kernel: [ 42.085728] init: plymouth-upstart-bridge main process ended, respawning
Nov 5 09:40:03 vhs-4 avahi-daemon[4372]: Server startup complete. Host name is vhs-4.local. Local service cookie is 116368600.
Nov 5 09:40:04 vhs-4 avahi-daemon[4372]: Service "vhs-4" (/services/udisks.service) successfully established.
Nov 5 09:40:04 vhs-4 avahi-daemon[4372]: Service "vhs-4" (/services/nut.service) successfully established.
Nov 5 09:40:04 vhs-4 avahi-daemon[4372]: Service "vhs-4" (/services/afpd.service) successfully established.
Nov 5 09:40:06 vhs-4 kernel: [ 45.332015] md: md3 stopped.
Nov 5 09:40:06 vhs-4 kernel: [ 45.333199] md: bind<sda3>
Nov 5 09:40:06 vhs-4 kernel: [ 45.333426] md: bind<sdd3>
Nov 5 09:40:06 vhs-4 kernel: [ 45.334611] md: bind<sdc3>
Nov 5 09:40:06 vhs-4 kernel: [ 45.334817] md: bind<sdb3>
Nov 5 09:40:06 vhs-4 kernel: [ 45.340538] md/raid:md3: device sdb3 operational as raid disk 0
Nov 5 09:40:06 vhs-4 kernel: [ 45.340544] md/raid:md3: device sdc3 operational as raid disk 3
Nov 5 09:40:06 vhs-4 kernel: [ 45.340546] md/raid:md3: device sdd3 operational as raid disk 2
Nov 5 09:40:06 vhs-4 kernel: [ 45.340547] md/raid:md3: device sda3 operational as raid disk 1
Nov 5 09:40:06 vhs-4 kernel: [ 45.340987] md/raid:md3: allocated 0kB
Nov 5 09:40:06 vhs-4 kernel: [ 45.341044] md/raid:md3: raid level 5 active with 4 out of 4 devices, algorithm 2
Nov 5 09:40:06 vhs-4 kernel: [ 45.341045] RAID conf printout:
Nov 5 09:40:06 vhs-4 kernel: [ 45.341046] --- level:5 rd:4 wd:4
Nov 5 09:40:06 vhs-4 kernel: [ 45.341048] disk 0, o:1, dev:sdb3
Nov 5 09:40:06 vhs-4 kernel: [ 45.341050] disk 1, o:1, dev:sda3
Nov 5 09:40:06 vhs-4 kernel: [ 45.341051] disk 2, o:1, dev:sdd3
Nov 5 09:40:06 vhs-4 kernel: [ 45.341052] disk 3, o:1, dev:sdc3
Nov 5 09:40:06 vhs-4 kernel: [ 45.341087] md3: detected capacity change from 0 to 5984662585344
Nov 5 09:40:06 vhs-4 kernel: [ 45.359550] md3: unknown partition table
Nov 5 09:40:07 vhs-4 kernel: [ 46.054158] EXT4-fs (md3): recovery complete
Nov 5 09:40:07 vhs-4 kernel: [ 46.098108] EXT4-fs (md3): mounted filesystem with ordered data mode. Opts: acl
Nov 5 09:40:07 vhs-4 kernel: [ 46.248738] Adding 498024k swap on /dev/sdb1. Priority:-1 extents:1 across:498024k FS
Nov 5 09:40:07 vhs-4 kernel: [ 46.271641] Adding 498024k swap on /dev/sda1. Priority:-2 extents:1 across:498024k FS
Nov 5 09:40:07 vhs-4 kernel: [ 46.366653] Adding 498024k swap on /dev/sdd1. Priority:-3 extents:1 across:498024k FS
Nov 5 09:40:07 vhs-4 kernel: [ 46.400660] Adding 498024k swap on /dev/sdc1. Priority:-4 extents:1 across:498024k FS
Nov 5 09:40:07 vhs-4 kernel: [ 46.539949] init: vht/mysql-sys pre-start process (4993) terminated with status 1
Nov 5 09:40:07 vhs-4 kernel: [ 46.574323] init: vht/mysql-users pre-start process (4996) terminated with status 1
Nov 5 09:40:07 vhs-4 kernel: [ 46.689707] init: update-setup-service main process (5057) killed by TERM signal
Nov 5 09:40:53 vhs-4 kernel: [ 92.027036] upsc[5191]: segfault at 0 ip 00007fe3d968daea sp 00007fffaaf299a8 error 4 in libc-2.19.so[7fe3d9605000+1bb000]
Nov 5 09:42:01 vhs-4 CRON[5386]: (root) CMD (/opt/vht/bin/network/net-map.sh)
Nov 5 09:44:01 vhs-4 CRON[5840]: (root) CMD (/opt/vht/bin/network/net-map.sh)
Nov 5 09:44:51 vhs-4 kernel: [ 331.146612] FS-Cache: Netfs 'cifs' registered for caching
Nov 5 09:44:51 vhs-4 kernel: [ 331.146748] Key type cifs.spnego registered
Nov 5 09:44:51 vhs-4 kernel: [ 331.146761] Key type cifs.idmap registered
Nov 5 09:44:51 vhs-4 kernel: [ 331.163576] CIFS VFS: Error connecting to socket. Aborting operation.
Nov 5 09:44:51 vhs-4 kernel: [ 331.164003] CIFS VFS: cifs_mount failed w/return code = -111
Nov 5 09:44:52 vhs-4 kernel: [ 332.033154] CIFS VFS: Error connecting to socket. Aborting operation.
Nov 5 09:44:52 vhs-4 kernel: [ 332.033555] CIFS VFS: cifs_mount failed w/return code = -111
Nov 5 09:45:01 vhs-4 CRON[6038]: (root) CMD ( [ -x /opt/vht/appserver/app/users/bin/connectiontracker-persist.php ] && /opt/vht/appserver/app/users/bin/connectiontracker-persist.php)
Nov 5 09:45:01 vhs-4 CRON[6040]: (root) CMD ( [ -x /opt/vht/bin/dns/dns-update-names.php ] && /opt/vht/bin/dns/dns-update-names.php && vlog "dns-update" "ok" || vlog "dns-update" "fail")
Nov 5 09:45:01 vhs-4 CRON[6041]: (root) CMD ( [ -x /usr/lib/php5/maxlifetime ] && [ -d /opt/vht/wshserver/var/lib/php5 ] && find /opt/vht/wshserver/var/lib/php5 -type f -cmin +$(/usr/lib/php5/maxlifetime) -print0 | xargs -n 200 -r -0 rm)
Nov 5 09:46:01 vhs-4 CRON[6154]: (root) CMD (/opt/vht/bin/network/net-map.sh)
Nov 5 09:47:37 vhs-4 kernel: [ 496.915100] upsc[6315]: segfault at 0 ip 00007f71c7451aea sp 00007fffc6de2e78 error 4 in libc-2.19.so[7f71c73c9000+1bb000]
Nov 5 09:48:01 vhs-4 CRON[6374]: (root) CMD (/opt/vht/bin/network/net-map.sh)
Nov 5 09:48:07 vhs-4 kernel: [ 526.666788] upsc[6438]: segfault at 0 ip 00007faab99aaaea sp 00007fff1c0d70c8 error 4 in libc-2.19.so[7faab9922000+1bb000]
Nov 5 09:50:01 vhs-4 CRON[7551]: (root) CMD ( [ -x /opt/vht/appserver/app/users/bin/connectiontracker-persist.php ] && /opt/vht/appserver/app/users/bin/connectiontracker-persist.php)
Nov 5 09:50:01 vhs-4 CRON[7553]: (root) CMD (/opt/vht/bin/network/net-map.sh)
Nov 5 09:50:01 vhs-4 CRON[7552]: (root) CMD (/opt/vht/bin/tv/tvUpdateLaunch.sh)
Nov 5 09:50:01 vhs-4 CRON[7554]: (root) CMD ( [ -x /usr/lib/php5/maxlifetime ] && [ -d /opt/vht/wshserver/var/lib/php5 ] && find /opt/vht/wshserver/var/lib/php5 -type f -cmin +$(/usr/lib/php5/maxlifetime) -print0 | xargs -n 200 -r -0 rm)
Nov 5 09:50:01 vhs-4 CRON[7560]: (root) CMD ( [ -x /opt/vht/bin/dns/dns-update-names.php ] && /opt/vht/bin/dns/dns-update-names.php && vlog "dns-update" "ok" || vlog "dns-update" "fail")
Nov 5 09:52:01 vhs-4 CRON[7811]: (root) CMD (/opt/vht/bin/network/net-map.sh)
Nov 5 09:54:02 vhs-4 CRON[7907]: (root) CMD (/opt/vht/bin/network/net-map.sh)
Nov 5 09:55:01 vhs-4 CRON[7979]: (root) CMD ( [ -x /opt/vht/appserver/app/users/bin/connectiontracker-persist.php ] && /opt/vht/appserver/app/users/bin/connectiontracker-persist.php)
Nov 5 09:55:01 vhs-4 CRON[7980]: (root) CMD ( [ -x /opt/vht/bin/dns/dns-update-names.php ] && /opt/vht/bin/dns/dns-update-names.php && vlog "dns-update" "ok" || vlog "dns-update" "fail")
Nov 5 09:55:01 vhs-4 CRON[7981]: (root) CMD ( [ -x /usr/lib/php5/maxlifetime ] && [ -d /opt/vht/wshserver/var/lib/php5 ] && find /opt/vht/wshserver/var/lib/php5 -type f -cmin +$(/usr/lib/php5/maxlifetime) -print0 | xargs -n 200 -r -0 rm)
Nov 5 09:56:01 vhs-4 CRON[8019]: (root) CMD (/opt/vht/bin/network/net-map.sh)
Nov 5 09:58:01 vhs-4 CRON[8127]: (root) CMD (/opt/vht/bin/network/net-map.sh)
Nov 5 10:00:01 vhs-4 CRON[8221]: (root) CMD ( [ -x /opt/vht/appserver/app/users/bin/connectiontracker-persist.php ] && /opt/vht/appserver/app/users/bin/connectiontracker-persist.php)
Nov 5 10:00:01 vhs-4 CRON[8222]: (root) CMD (/opt/vht/bin/network/net-map.sh)
Nov 5 10:00:01 vhs-4 CRON[8223]: (root) CMD ( [ -x /usr/lib/php5/maxlifetime ] && [ -d /opt/vht/wshserver/var/lib/php5 ] && find /opt/vht/wshserver/var/lib/php5 -type f -cmin +$(/usr/lib/php5/maxlifetime) -print0 | xargs -n 200 -r -0 rm)
Nov 5 10:00:01 vhs-4 CRON[8224]: (root) CMD ( [ -x /opt/vht/bin/dns/dns-update-names.php ] && /opt/vht/bin/dns/dns-update-names.php && vlog "dns-update" "ok" || vlog "dns-update" "fail")
Nov 5 10:02:01 vhs-4 CRON[8342]: (root) CMD (/opt/vht/bin/network/net-map.sh)
Nov 5 10:04:01 vhs-4 CRON[8589]: (root) CMD (/opt/vht/bin/network/net-map.sh)
Nov 5 10:05:01 vhs-4 CRON[8779]: (root) CMD (/opt/vht/bin/tv/tvUpdateLaunch.sh)
Nov 5 10:05:01 vhs-4 CRON[8780]: (root) CMD ( [ -x /opt/vht/appserver/app/users/bin/connectiontracker-persist.php ] && /opt/vht/appserver/app/users/bin/connectiontracker-persist.php)
Nov 5 10:05:01 vhs-4 CRON[8783]: (root) CMD ( [ -x /usr/lib/php5/maxlifetime ] && [ -d /opt/vht/wshserver/var/lib/php5 ] && find /opt/vht/wshserver/var/lib/php5 -type f -cmin +$(/usr/lib/php5/maxlifetime) -print0 | xargs -n 200 -r -0 rm)
Nov 5 10:05:01 vhs-4 CRON[8782]: (root) CMD ( [ -x /opt/vht/bin/dns/dns-update-names.php ] && /opt/vht/bin/dns/dns-update-names.php && vlog "dns-update" "ok" || vlog "dns-update" "fail")
Nov 5 10:06:01 vhs-4 CRON[8910]: (root) CMD (/opt/vht/bin/network/net-map.sh)
Nov 5 10:08:01 vhs-4 CRON[9206]: (root) CMD (/opt/vht/bin/network/net-map.sh)
Nov 5 10:10:01 vhs-4 CRON[9660]: (root) CMD ( [ -x /opt/vht/appserver/app/users/bin/connectiontracker-persist.php ] && /opt/vht/appserver/app/users/bin/connectiontracker-persist.php)
Nov 5 10:10:01 vhs-4 CRON[9661]: (root) CMD ( [ -x /opt/vht/bin/dns/dns-update-names.php ] && /opt/vht/bin/dns/dns-update-names.php && vlog "dns-update" "ok" || vlog "dns-update" "fail")
Nov 5 10:10:01 vhs-4 CRON[9663]: (root) CMD ( [ -x /usr/lib/php5/maxlifetime ] && [ -d /opt/vht/wshserver/var/lib/php5 ] && find /opt/vht/wshserver/var/lib/php5 -type f -cmin +$(/usr/lib/php5/maxlifetime) -print0 | xargs -n 200 -r -0 rm)
Nov 5 10:10:01 vhs-4 CRON[9662]: (root) CMD (/opt/vht/bin/network/net-map.sh)
Nov 5 10:12:01 vhs-4 CRON[9936]: (root) CMD (/opt/vht/bin/network/net-map.sh)
Nov 5 10:14:01 vhs-4 CRON[10143]: (root) CMD (/opt/vht/bin/network/net-map.sh)
Nov 5 10:15:01 vhs-4 CRON[10302]: (root) CMD (/opt/vht/bin/storage/hddSmartChecker.php --temp)
Nov 5 10:15:01 vhs-4 CRON[10303]: (root) CMD ([ -x "/opt/vht/appserver/bin/alerts/notices_clean.php" ] && /opt/vht/appserver/bin/alerts/notices_clean.php)
Nov 5 10:15:01 vhs-4 CRON[10301]: (root) CMD ( [ -x /opt/vht/appserver/app/users/bin/connectiontracker-persist.php ] && /opt/vht/appserver/app/users/bin/connectiontracker-persist.php)
Nov 5 10:15:01 vhs-4 CRON[10304]: (root) CMD ( [ -x /opt/vht/bin/dns/dns-update-names.php ] && /opt/vht/bin/dns/dns-update-names.php && vlog "dns-update" "ok" || vlog "dns-update" "fail")
Nov 5 10:15:01 vhs-4 CRON[10308]: (root) CMD ( [ -x /usr/lib/php5/maxlifetime ] && [ -d /opt/vht/wshserver/var/lib/php5 ] && find /opt/vht/wshserver/var/lib/php5 -type f -cmin +$(/usr/lib/php5/maxlifetime) -print0 | xargs -n 200 -r -0 rm)
Nov 5 10:16:01 vhs-4 CRON[10484]: (root) CMD (/opt/vht/bin/network/net-map.sh)
Nov 5 10:17:01 vhs-4 CRON[10649]: (root) CMD ( cd / && run-parts --report /etc/cron.hourly)
Nov 5 10:18:01 vhs-4 CRON[11199]: (root) CMD (/opt/vht/bin/network/net-map.sh)
Nov 5 10:20:01 vhs-4 CRON[12197]: (root) CMD ( [ -x /opt/vht/appserver/app/users/bin/connectiontracker-persist.php ] && /opt/vht/appserver/app/users/bin/connectiontracker-persist.php)
Nov 5 10:20:01 vhs-4 CRON[12198]: (root) CMD (/opt/vht/bin/tv/tvUpdateLaunch.sh)
Nov 5 10:20:01 vhs-4 CRON[12199]: (root) CMD (/opt/vht/bin/network/net-map.sh)
Nov 5 10:20:01 vhs-4 CRON[12204]: (root) CMD ( [ -x /opt/vht/bin/dns/dns-update-names.php ] && /opt/vht/bin/dns/dns-update-names.php && vlog "dns-update" "ok" || vlog "dns-update" "fail")
Nov 5 10:20:01 vhs-4 CRON[12206]: (root) CMD ( [ -x /usr/lib/php5/maxlifetime ] && [ -d /opt/vht/wshserver/var/lib/php5 ] && find /opt/vht/wshserver/var/lib/php5 -type f -cmin +$(/usr/lib/php5/maxlifetime) -print0 | xargs -n 200 -r -0 rm)
Dernière modification par KIKIBIBI (Le 05/11/2023, à 10:34)
Hors ligne
#2 Le 05/11/2023, à 10:29
- xubu1957
Re : Disques pleins sur Serveur Ve-Hotech Xtrem 2 RAID5 V6.1.4
Bonjour,
Pour ajouter toi-même les balises code à ton précédent message #1 : Merci
Cliquer sur le lien « Modifier » en bas à droite du message
Sélectionner le texte
Cliquer sur le <> de l'éditeur de message
comme indiqué dans le : Retour utilisable de commande
Dernière modification par xubu1957 (Le 05/11/2023, à 10:37)
Conseils pour les nouveaux demandeurs et pas qu'eux
Important : Pensez à passer vos sujets en [Réso|u] lorsque ceux-ci le sont, au début du titre en cliquant sur Modifier sous le premier message, et un bref récapitulatif de la solution à la fin de celui-ci. Merci. Membre de Linux-Azur
Hors ligne
#3 Le 05/11/2023, à 10:45
- geole
Re : Disques pleins sur Serveur Ve-Hotech Xtrem 2 RAID5 V6.1.4
Bonjour.
Peux-tu donner ce retour pour vérifier le taux de remplissage et trouver le point de montage.
df -h
il ne faut pas faire confiance à gnome-disks pour connaitre l'état de santé des disques.
Installe l'application smartmontools puis chapitre trois. Cela fera quatre commandes de ce style à faire.
sudo smartctl -s on -a /dev/sdX
Dernière modification par geole (Le 05/11/2023, à 10:58)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#4 Le 05/11/2023, à 10:50
- KIKIBIBI
Re : Disques pleins sur Serveur Ve-Hotech Xtrem 2 RAID5 V6.1.4
Bonjour,
avec quelle interface je rentre cette commande ?
Je suis sur un PC WINDOWS et je n'ai donc aucun programme me permettant de communiquer avec le NAS.
Ou ligne de commande dos ?
Hors ligne
#5 Le 05/11/2023, à 10:56
- geole
Re : Disques pleins sur Serveur Ve-Hotech Xtrem 2 RAID5 V6.1.4
Je doute que la trace que tu as donnée provienne de windows. Si oui tu es sous WSL et c'est parfait pour continuer du moins pour la première commande
Je ne comprends pas cette histoire de "disk false inutilisable Les quatre disques semblent opérationnels.
md/raid:md3: raid level 5 active with 4 out of 4 devices, algorithm 2
Dernière modification par geole (Le 05/11/2023, à 11:03)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#6 Le 05/11/2023, à 11:01
- KIKIBIBI
Re : Disques pleins sur Serveur Ve-Hotech Xtrem 2 RAID5 V6.1.4
La copie du journal provient de l'interface du NAS (sur mon navigateur) où il y a une rubrique permettant d'interroger. Mais via cette interface, pas d'endroit pour lancer des lignes de commande.
Comment on joint des captures d'écran ici ?
Hors ligne
#7 Le 05/11/2023, à 11:08
- geole
Re : Disques pleins sur Serveur Ve-Hotech Xtrem 2 RAID5 V6.1.4
Il faut poster les copies d'écran dans un site de partage et fournir le lien qui sera généré.
paragraphe 2.2
Windows doit bien avoir des outils permettant de trouver qui occupe l'espace disque.
Je ne sais pas si ce lien sera utile
Peut-être celui-ci
Dernière modification par geole (Le 05/11/2023, à 11:14)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#8 Le 05/11/2023, à 11:15
- xubu1957
Re : Disques pleins sur Serveur Ve-Hotech Xtrem 2 RAID5 V6.1.4
Voir > [Tuto] Poster une image (Méthode 2)
Conseils pour les nouveaux demandeurs et pas qu'eux
Important : Pensez à passer vos sujets en [Réso|u] lorsque ceux-ci le sont, au début du titre en cliquant sur Modifier sous le premier message, et un bref récapitulatif de la solution à la fin de celui-ci. Merci. Membre de Linux-Azur
Hors ligne
#9 Le 05/11/2023, à 11:18
- KIKIBIBI
Re : Disques pleins sur Serveur Ve-Hotech Xtrem 2 RAID5 V6.1.4
Le problème est bien que je n'accède plus au NAS via mon PC WINDOWS. J'ai bien la connexion mais pas l'accès. Il me faudrait donc effectivement l' application smartmontools mais au premier abord ça me semble peu accessible pour un néophyte comme moi
C:\Users\tigou>ping 192.168.1.14
Envoi d’une requête 'Ping' 192.168.1.14 avec 32 octets de données :
Réponse de 192.168.1.14 : octets=32 temps<1ms TTL=64
Réponse de 192.168.1.14 : octets=32 temps=1 ms TTL=64
Réponse de 192.168.1.14 : octets=32 temps<1ms TTL=64
Réponse de 192.168.1.14 : octets=32 temps<1ms TTL=64
Statistiques Ping pour 192.168.1.14:
Paquets : envoyés = 4, reçus = 4, perdus = 0 (perte 0%),
Durée approximative des boucles en millisecondes :
Minimum = 0ms, Maximum = 1ms, Moyenne = 0ms
Hors ligne
#10 Le 05/11/2023, à 11:26
- KIKIBIBI
Re : Disques pleins sur Serveur Ve-Hotech Xtrem 2 RAID5 V6.1.4
Hors ligne
#11 Le 05/11/2023, à 11:30
- geole
Re : Disques pleins sur Serveur Ve-Hotech Xtrem 2 RAID5 V6.1.4
Je pense que le logiciel de ton serveur n'est pas au point et qu'il s'est mis a boucler et sa trace a remplit tout l'espace disque et il empêche la connexion.
l: [ 46.400660] Adding 498024k swap on /dev/sdc1. Priority:-4 extents:1 across:498024k FS
Nov 5 09:40:07 vhs-4 kernel: [ 46.539949] init: vht/mysql-sys pre-start process (4993) terminated with status 1
Nov 5 09:40:07 vhs-4 kernel: [ 46.574323] init: vht/mysql-users pre-start process (4996) terminated with status 1
Nov 5 09:40:07 vhs-4 kernel: [ 46.689707] init: update-setup-service main process (5057) killed by TERM signal
Nov 5 09:40:53 vhs-4 kernel: [ 92.027036] upsc[5191]: segfault at 0 ip 00007fe3d968daea sp 00007fffaaf299a8 error 4 in libc-2.19.so[7fe3d9605000+1bb000]
Nov 5 09:42:01 vhs-4 CRON[5386]: (root) CMD (/opt/vht/bin/network/net-map.sh)
Nov 5 09:44:01 vhs-4 CRON[5840]: (root) CMD (/opt/vht/bin/network/net-map.sh)
Nov 5 09:44:51 vhs-4 kernel: [ 331.146612] FS-Cache: Netfs 'cifs' registered for caching
Nov 5 09:44:51 vhs-4 kernel: [ 331.146748] Key type cifs.spnego registered
Nov 5 09:44:51 vhs-4 kernel: [ 331.146761] Key type cifs.idmap registered
Nov 5 09:44:51 vhs-4 kernel: [ 331.163576] CIFS VFS: Error connecting to socket. Aborting operation.
Nov 5 09:44:51 vhs-4 kernel: [ 331.164003] CIFS VFS: cifs_mount failed w/return code = -111
Nov 5 09:44:52 vhs-4 kernel: [ 332.033154] CIFS VFS: Error connecting to socket. Aborting operation.
Nov 5 09:44:52 vhs-4 kernel: [ 332.033555] CIFS VFS: cifs_mount failed w/return code = -111
Voir dernière ligne. As-tu un contrat d'assistance chez hotech
et la première erreur
Dernière modification par geole (Le 05/11/2023, à 11:36)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#13 Le 05/11/2023, à 11:34
- KIKIBIBI
Re : Disques pleins sur Serveur Ve-Hotech Xtrem 2 RAID5 V6.1.4
HOTECH n'existe plus. La boite a disparu il y a qq années
04/09/2019 : liquidation judiciaire dans WIKIPEDIA
Hors ligne
#15 Le 05/11/2023, à 11:44
- KIKIBIBI
Re : Disques pleins sur Serveur Ve-Hotech Xtrem 2 RAID5 V6.1.4
"il s'est mis a boucler et sa trace a remplit tout l'espace disque" --> Il est vrai que je n'arrive pas à comprendre comment j'aurais pu saturer les disques avec mes copies de mon tél.
Donc un début d'explication. Comment stopper cette boucle (donc sans interface système à ma portée) ?
Hors ligne
#16 Le 05/11/2023, à 11:44
- geole
Re : Disques pleins sur Serveur Ve-Hotech Xtrem 2 RAID5 V6.1.4
complètement novice en informatique pure et encoure plus en LINUX, UBUNTU,etc.
Donc je pense que tu n'as pas de sauvegarde des données que tu as stockées dans ce nas.
Je pense aussi que tu n'as pas un ordinateur capable de se connecter directement avec 4 autres disques.
La solution passe par le support d'installation de ce nas.
Il faudrait savoir le faire booter directement sans windows. Cela s'appelle le Live-USB.
Si tu n'as rien de cela, passe par un professionnel de la récupération de données si tu es pressé.
APPBOXL te permet d'acceder au nas es-tu certain de ne pas pouvoir faire d'autres commandes.
As-tu un lien qui permettrait de savoir ce qu'elle peut faire.
Dernière modification par geole (Le 05/11/2023, à 11:51)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#17 Le 05/11/2023, à 11:50
- KIKIBIBI
Re : Disques pleins sur Serveur Ve-Hotech Xtrem 2 RAID5 V6.1.4
D'accord.
Des conseils de "professionnel" ? parce que je n'ai pas trop envie de passer par des boites informatiques de coin de rue. j'ai eu la mauvaise expérience il y a qq mois où la personne m'embrouillait avec le RAID5, j'ai eu vite fait de récupérer mon NAS
Hors ligne
#18 Le 05/11/2023, à 11:57
- KIKIBIBI
Re : Disques pleins sur Serveur Ve-Hotech Xtrem 2 RAID5 V6.1.4
Autres questions :
1. Est-ce qu'il serait judicieux que je me monte un PC qui tourne sous UBUNTU ?
https://doc.ubuntu-fr.org/accueil
Et qui me permettrait donc d'accéder au NAS directement ?
2. Question de bourin j'avoue. Si j'installe un disque dur neuf, est-ce qu'il ne va pas sortir de cette boucle ?
Hors ligne
#19 Le 05/11/2023, à 11:59
- KIKIBIBI
Re : Disques pleins sur Serveur Ve-Hotech Xtrem 2 RAID5 V6.1.4
"APPBOXL te permet d'acceder au nas es-tu certain de ne pas pouvoir faire d'autres commandes." --> je ne vois rien non
Hors ligne
#20 Le 05/11/2023, à 12:02
- geole
Re : Disques pleins sur Serveur Ve-Hotech Xtrem 2 RAID5 V6.1.4
La seule chose que je peux te dire est que ce type de raids est quasiment géré de base avec ubuntu aussitôt qu'on y ajoute la couche MDADM et que tu n'auras pas de problème de réparation car le raid est en bon état.
A toi de savoir si tu achètes un ordinateur de bureau capable de connecter 4 disques durs, voir cinq si tu ne veux pas travailler avec un ubuntu sur disque externe.
et que ce serait une bonne chose de le faire car avec un constructeur disparu et un logiciel pas au point, je crains pour le jour où un disque sera en panne.
Ajout En fait, il y aura un problème. Le raid ne sera pas pas automatiquement reconnu si la structure raids n'est pas à la norme 1.2. Comme ton raids est ancien, il est probable qu'il ne soit pas à cette norme, il faudra alors faire l'assemblage manuellement en précisant la norme à appliquer.
Dernière modification par geole (Le 05/11/2023, à 17:45)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne
#21 Le 05/11/2023, à 12:16
- KIKIBIBI
Re : Disques pleins sur Serveur Ve-Hotech Xtrem 2 RAID5 V6.1.4
Merci de ces derniers conseils (à moi de m'y mettre !)
Et oui, bien conscient que je joue avec le feu.
Si vous n'y voyez pas pas d'inconvénient, je passerai ce post en Résolu quand j'aurai intégrer tout ça et orienter mes décisions.
Et si par hasard, quelqu'un trouve l'astuce (interface accès ss windows, hardware, software, brûler un cierge , etc...), merci par avance.
Bonne journée, Fred
Hors ligne
#22 Le 05/11/2023, à 12:38
- geole
Re : Disques pleins sur Serveur Ve-Hotech Xtrem 2 RAID5 V6.1.4
Je te laisse lire cette discussion pour un serveur de la même marque. L'utilisateur savait booter le serveur avec sa clé usb de boot. Si tu peux creuser. On a pu aussi faire une clé usb de boot ubuntu qui a fonctionné.
Tu peux faire une clé usb de boot de ubuntu avec windows en utilisant ventoy.
Aux dernières nouvelles il a tenté de réutiliser le matériel sans y réussir.
Dernière modification par geole (Le 05/11/2023, à 12:46)
Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit, utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248
Hors ligne