Contenu | Rechercher | Menus

Annonce

Si vous avez des soucis pour rester connecté, déconnectez-vous puis reconnectez-vous depuis ce lien en cochant la case
Me connecter automatiquement lors de mes prochaines visites.

À propos de l'équipe du forum.

#1 Le 20/05/2020, à 18:27

hibiki.tokay

Agrégation de lien

Bonjour

Sur ma nouvelle carte mère j'ai deux ports ethernet, j'aimerais faire de l’agrégation de lien. (mon nas l'a sur ces 4 connections, et mon autre tour (celle de sauvegarde du nas) aussi sur ces 2 connections)
J'ai suivi ce qui est marqué dans cette doc https://doc.ubuntu-fr.org/bonding et j'ai lu d'autre sujet ce rapportant a ça.

Voila mon /etc/modprobe.d/aliase-bond.conf

alias bond0 bonding
options bonding mode=0 miimon=100 downdelay=200 updelay=200

et mon /etc/network/interfaces

# interfaces(5) file used by ifup(8) and ifdown(8)
auto lo
iface lo inet loopback


auto bond0
iface bond0 inet static
      address 192.168.1.20
      netmask 255.255.255.0
      network 192.168.1.0
      gateway 192.168.1.254
      broadcast 192.168.1.255
      up /sbin/ifenslave bond0 eno1 enp2s0
      down /sbin/ifenslave -d bond0 eno1 enp2s0

A la fin j'ai bien fait

sudo ifup bond0
Cannot find device "bond0"
Failed to bring up bond0.

donc j'ai aussi fais

 /etc/init.d/networking restart
[....] Restarting networking (via systemctl): networking.serviceJob for networking.service failed because the control process exited with error code.
See "systemctl status networking.service" and "journalctl -xe" for details.
failed!

Donc je suis aller voir

systemctl status networking.service
● networking.service - Raise network interfaces
   Loaded: loaded (/lib/systemd/system/networking.service; enabled; vendor preset: enabled)
   Active: failed  (Result: exit-code) since Wed 2020-05-20 19:03:19 CEST; 1min 11s ago
     Docs: man:interfaces(5)
  Process: 4078 ExecStart=/sbin/ifup -a --read-environment (code=exited, status=1/FAILURE) 
  Process: 4075 ExecStartPre=/bin/sh -c [ "$CONFIGURE_INTERFACES" != "no" ] && [ -n "$(ifquery --read-environment --list --exclude=lo)" ] && udevadm settle (code=exited, status=0/SUCCESS)
 Main PID: 4078 (code=exited, status=1/FAILURE)

mai 20 19:03:19 frt-touri5-8400 systemd[1]: Starting Raise network interfaces...
mai 20 19:03:19 frt-touri5-8400 ifup[4078]: Cannot find device "bond0"
mai 20 19:03:19 frt-touri5-8400 ifup[4078]: Failed to bring up bond0.
mai 20 19:03:19 frt-touri5-8400 systemd[1]: networking.service: Main process exited, code=exited, status=1/FAILURE
mai 20 19:03:19 frt-touri5-8400 systemd[1]: networking.service: Failed with result 'exit-code'.
mai 20 19:03:19 frt-touri5-8400 systemd[1]: Failed to start Raise network interfaces.

et

journalctl -xe
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0):
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0): Idek Iiyama PL2791Q (DFP-1): connected
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0): Idek Iiyama PL2791Q (DFP-1): Internal TMDS
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0): Idek Iiyama PL2791Q (DFP-1): 600.0 MHz maximum pixel clock
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0):
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0): DFP-2: disconnected
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0): DFP-2: Internal DisplayPort
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0): DFP-2: 1440.0 MHz maximum pixel clock
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0):
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0): DFP-3: disconnected
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0): DFP-3: Internal TMDS
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0): DFP-3: 165.0 MHz maximum pixel clock
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0):
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0): Idek Iiyama PLE2483H (DFP-4): connected
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0): Idek Iiyama PLE2483H (DFP-4): Internal TMDS
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0): Idek Iiyama PLE2483H (DFP-4): 600.0 MHz maximum pixel clock
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0):
mai 20 18:57:04 frt-touri5-8400 rtkit-daemon[1826]: Supervising 0 threads of 0 processes of 1 users.
mai 20 18:57:04 frt-touri5-8400 rtkit-daemon[1826]: Supervising 0 threads of 0 processes of 1 users.
mai 20 18:57:04 frt-touri5-8400 rtkit-daemon[1826]: Supervising 0 threads of 0 processes of 1 users.
mai 20 18:57:04 frt-touri5-8400 rtkit-daemon[1826]: Supervising 0 threads of 0 processes of 1 users.
mai 20 18:57:04 frt-touri5-8400 rtkit-daemon[1826]: Supervising 0 threads of 0 processes of 1 users.
mai 20 18:57:04 frt-touri5-8400 /usr/lib/gdm3/gdm-x-session[1997]: (--) NVIDIA(GPU-0): Idek Iiyama PL2791Q (DFP-5): connected

Auriez vous un idée svp


Cooler Master MasterBox Q300L, ASRock B550M Steel Legend, AMD Ryzen 5 5600 , GTX 1050 Ti WINDFORCE, DDR4 32go (Ub22.10)
Portable Lenovo Ideapad Gaming 3 15IHU6 ram32Go, Mvne 2To + 4To + SSD 8To (Ub22.10)
Syno DS1819+ 8x6To (SHR2) et Syno DS1512+ 5x8To (SHR1)

Hors ligne

#2 Le 20/05/2020, à 18:38

xubu1957

Re : Agrégation de lien


Conseils pour les nouveaux demandeurs et pas qu'eux
Important : Pensez à passer vos sujets en [Résolu] lorsque ceux-ci le sont, au début du titre en cliquant sur Modifier sous le premier message, et un bref récapitulatif de la solution à la fin de celui-ci. Merci.                   Membre de Linux-Azur

En ligne

#3 Le 20/05/2020, à 18:44

hibiki.tokay

Re : Agrégation de lien

Bonsoir
Rien, me demande le mdp mais rien ne ce produit. toujours la même chose

si je fait un

ifconfig
eno1: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 192.168.1.16  netmask 255.255.255.0  broadcast 192.168.1.255
        inet6 fe80::eb8:383f:5487:a8b0  prefixlen 64  scopeid 0x20<link>
        ether a8:a1:59:16:a2:08  txqueuelen 1000  (Ethernet)
        RX packets 7463  bytes 2980730 (2.9 MB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 2535  bytes 532421 (532.4 KB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0
        device interrupt 16  memory 0xa3400000-a3420000  

enp2s0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 192.168.1.15  netmask 255.255.255.0  broadcast 192.168.1.255
        inet6 fe80::82f3:43cf:b976:d939  prefixlen 64  scopeid 0x20<link>
        ether a8:a1:59:16:a1:e7  txqueuelen 1000  (Ethernet)
        RX packets 24061  bytes 18378699 (18.3 MB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 15417  bytes 3968566 (3.9 MB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0
        device memory 0xa3300000-a331ffff  

lo: flags=73<UP,LOOPBACK,RUNNING>  mtu 65536
        inet 127.0.0.1  netmask 255.0.0.0
        inet6 ::1  prefixlen 128  scopeid 0x10<host>
        loop  txqueuelen 1000  (Boucle locale)
        RX packets 1104  bytes 105914 (105.9 KB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 1104  bytes 105914 (105.9 KB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

wlp3s0: flags=4099<UP,BROADCAST,MULTICAST>  mtu 1500
        ether 80:32:53:d6:4e:44  txqueuelen 1000  (Ethernet)
        RX packets 0  bytes 0 (0.0 B)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 0  bytes 0 (0.0 B)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

Cooler Master MasterBox Q300L, ASRock B550M Steel Legend, AMD Ryzen 5 5600 , GTX 1050 Ti WINDFORCE, DDR4 32go (Ub22.10)
Portable Lenovo Ideapad Gaming 3 15IHU6 ram32Go, Mvne 2To + 4To + SSD 8To (Ub22.10)
Syno DS1819+ 8x6To (SHR2) et Syno DS1512+ 5x8To (SHR1)

Hors ligne

#4 Le 20/05/2020, à 18:50

xubu1957

Re : Agrégation de lien

Il faut attendre les conseils d'aidants pointus.


Conseils pour les nouveaux demandeurs et pas qu'eux
Important : Pensez à passer vos sujets en [Résolu] lorsque ceux-ci le sont, au début du titre en cliquant sur Modifier sous le premier message, et un bref récapitulatif de la solution à la fin de celui-ci. Merci.                   Membre de Linux-Azur

En ligne

#5 Le 20/05/2020, à 18:55

hibiki.tokay

Re : Agrégation de lien

oui je pense aussi. mais comme je n'ai pas installer encore la dernière version de ubuntu je me permet de faire des tests
J'espère qu'il y aura une solution


Cooler Master MasterBox Q300L, ASRock B550M Steel Legend, AMD Ryzen 5 5600 , GTX 1050 Ti WINDFORCE, DDR4 32go (Ub22.10)
Portable Lenovo Ideapad Gaming 3 15IHU6 ram32Go, Mvne 2To + 4To + SSD 8To (Ub22.10)
Syno DS1819+ 8x6To (SHR2) et Syno DS1512+ 5x8To (SHR1)

Hors ligne

#6 Le 22/05/2020, à 06:38

maxire

Re : Agrégation de lien

Salut,

Au vu du message #3 je pense que tu n'utilises pas une version Ubuntu-Server mais une version poste de travail.
Tes deux interfaces ethernet sont montées et possèdent leurs propres adresses IP ce qui suggère que NetworkManager gère le réseau de ta machine.
Il existe plusieurs méthodes pour mettre en place le bonding, la documentation que tu as uilisée pour cette mise en place est valable pour une version Ubuntu-Server pas pour une machine dont la gestion réseau est réalisée par NetworkManager.
À une époque il était possible de définir des interfaces d'agrégation sous NetworkManager via son interface graphique de configuration (dépendamment des distributions et des bureaux), il faudrait chercher de ce côté.


Maxire
Archlinux/Mate + Ubuntu 22.04 + Archlinux/Gnome sur poste de travail

Hors ligne

#7 Le 22/05/2020, à 12:03

hibiki.tokay

Re : Agrégation de lien

Bonjour

maxire a écrit :

Au vu du message #3 je pense que tu n'utilises pas une version Ubuntu-Server mais une version poste de travail.

Effectivement c'est bien de mon pc normal.
Donc j'ai continué mes recherches et j'ai trouvé ça https://www.starmate.fr/agregation-de-l … ntu-16-04/.

Mon /etc/network/interfaces est maintenant

# interfaces(5) file used by ifup(8) and ifdown(8)
auto lo
iface lo inet loopback

# The primary network interface
auto eno1
iface eno1 inet manual
    bond-master bond0
   
# The secondary network interface
auto enp2s0
iface enp2s0 inet manual
    bond-master bond0

auto bond0
iface bond0 inet static
    address 192.168.1.20
    gateway 192.168.1.254
    netmask 255.255.255.0
    dns-nameservers 8.8.8.8 8.8.4.4
    up /sbin/ifenslave bond0 eno1 enp2s0
    down /sbin/ifenslave -d bond0 eno1 enp2s0

J'ai modifié /etc/systemd/system/network-online.target.wants/networking.service et /etc/default/networking

L’état de l’agrégat bond0

cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: load balancing (round-robin)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0

Slave Interface: eno1
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: a8:a1:59:16:a2:08
Slave queue ID: 0

Slave Interface: enp2s0
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: a8:a1:59:16:a1:e7
Slave queue ID: 0
ifconfig 
bond0: flags=5187<UP,BROADCAST,RUNNING,MASTER,MULTICAST>  mtu 1500
        inet 192.168.1.20  netmask 255.255.255.0  broadcast 192.168.1.255
        inet6 fe80::aaa1:59ff:fe16:a208  prefixlen 64  scopeid 0x20<link>
        ether a8:a1:59:16:a2:08  txqueuelen 1000  (Ethernet)
        RX packets 6689692  bytes 7542203504 (7.5 GB)
        RX errors 0  dropped 2  overruns 0  frame 0
        TX packets 978791  bytes 95890134 (95.8 MB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

eno1: flags=6211<UP,BROADCAST,RUNNING,SLAVE,MULTICAST>  mtu 1500
        ether a8:a1:59:16:a2:08  txqueuelen 1000  (Ethernet)
        RX packets 87312  bytes 58958180 (58.9 MB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 488846  bytes 48872193 (48.8 MB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0
        device interrupt 16  memory 0xa3400000-a3420000  

enp2s0: flags=6211<UP,BROADCAST,RUNNING,SLAVE,MULTICAST>  mtu 1500
        inet 192.168.1.16  netmask 255.255.255.0  broadcast 192.168.1.255
        inet6 fe80::82f3:43cf:b976:d939  prefixlen 64  scopeid 0x20<link>
        ether a8:a1:59:16:a2:08  txqueuelen 1000  (Ethernet)
        RX packets 6602380  bytes 9936136718 (9.9 GB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 489945  bytes 47017941 (47.0 MB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0
        device memory 0xa3300000-a331ffff  

lo: flags=73<UP,LOOPBACK,RUNNING>  mtu 65536
        inet 127.0.0.1  netmask 255.0.0.0
        inet6 ::1  prefixlen 128  scopeid 0x10<host>
        loop  txqueuelen 1000  (Boucle locale)
        RX packets 3547  bytes 337728 (337.7 KB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 3547  bytes 337728 (337.7 KB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

wlp3s0: flags=4099<UP,BROADCAST,MULTICAST>  mtu 1500
        ether 80:32:53:d6:4e:44  txqueuelen 1000  (Ethernet)
        RX packets 0  bytes 0 (0.0 B)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 0  bytes 0 (0.0 B)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0
ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: enp2s0: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond0 state UP group default qlen 1000
    link/ether a8:a1:59:16:a2:08 brd ff:ff:ff:ff:ff:ff
    inet 192.168.1.16/24 brd 192.168.1.255 scope global dynamic noprefixroute enp2s0
       valid_lft 70952sec preferred_lft 70952sec
    inet6 fe80::82f3:43cf:b976:d939/64 scope link tentative 
       valid_lft forever preferred_lft forever
3: eno1: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc fq_codel master bond0 state UP group default qlen 1000
    link/ether a8:a1:59:16:a2:08 brd ff:ff:ff:ff:ff:ff
4: wlp3s0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc mq state DOWN group default qlen 1000
    link/ether 80:32:53:d6:4e:44 brd ff:ff:ff:ff:ff:ff
5: bond0: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether a8:a1:59:16:a2:08 brd ff:ff:ff:ff:ff:ff
    inet 192.168.1.20/24 brd 192.168.1.255 scope global bond0
       valid_lft forever preferred_lft forever
    inet6 fe80::aaa1:59ff:fe16:a208/64 scope link 
       valid_lft forever preferred_lft forever

Ensuite j'ai installé ethtool

sudo ethtool bond0
Settings for bond0:
	Supported ports: [ ]
	Supported link modes:   Not reported
	Supported pause frame use: No
	Supports auto-negotiation: No
	Supported FEC modes: Not reported
	Advertised link modes:  Not reported
	Advertised pause frame use: No
	Advertised auto-negotiation: No
	Advertised FEC modes: Not reported
	Speed: 2000Mb/s
	Duplex: Full
	Port: Other
	PHYAD: 0
	Transceiver: internal
	Auto-negotiation: off
	Link detected: yes

sudo ethtool eno1
Settings for eno1:
	Supported ports: [ TP ]
	Supported link modes:   10baseT/Half 10baseT/Full 
	                        100baseT/Half 100baseT/Full 
	                        1000baseT/Full 
	Supported pause frame use: No
	Supports auto-negotiation: Yes
	Supported FEC modes: Not reported
	Advertised link modes:  10baseT/Half 10baseT/Full 
	                        100baseT/Half 100baseT/Full 
	                        1000baseT/Full 
	Advertised pause frame use: No
	Advertised auto-negotiation: Yes
	Advertised FEC modes: Not reported
	Speed: 1000Mb/s
	Duplex: Full
	Port: Twisted Pair
	PHYAD: 1
	Transceiver: internal
	Auto-negotiation: on
	MDI-X: on (auto)
	Supports Wake-on: pumbg
	Wake-on: g
	Current message level: 0x00000007 (7)
			       drv probe link
	Link detected: yes

sudo ethtool enp2s0
Settings for enp2s0:
	Supported ports: [ TP ]
	Supported link modes:   10baseT/Half 10baseT/Full 
	                        100baseT/Half 100baseT/Full 
	                        1000baseT/Full 
	Supported pause frame use: Symmetric
	Supports auto-negotiation: Yes
	Supported FEC modes: Not reported
	Advertised link modes:  10baseT/Half 10baseT/Full 
	                        100baseT/Half 100baseT/Full 
	                        1000baseT/Full 
	Advertised pause frame use: Symmetric
	Advertised auto-negotiation: Yes
	Advertised FEC modes: Not reported
	Speed: 1000Mb/s
	Duplex: Full
	Port: Twisted Pair
	PHYAD: 1
	Transceiver: internal
	Auto-negotiation: on
	MDI-X: off (auto)
	Supports Wake-on: pumbg
	Wake-on: g
	Current message level: 0x00000007 (7)
			       drv probe link
	Link detected: yes

Jusque la tous a l'aire d'aller, mais je n'ai strictement rien gagné en terme de débit, que ce soit entre mon pc et le nas ds1819+, le pc et le nas Xpenology ou entre les 2 nas. Pourtant dans mles trois cas j'ai effectué un bonding.
Nas ds1819+ bond avec les 4 interfaces
Nas Xpenology bond avec les 2 interfaces
Mon pc bond avec les 2 interfaces
Je signale aussi que mon swich et un D-Link DGS-1100-16


Cooler Master MasterBox Q300L, ASRock B550M Steel Legend, AMD Ryzen 5 5600 , GTX 1050 Ti WINDFORCE, DDR4 32go (Ub22.10)
Portable Lenovo Ideapad Gaming 3 15IHU6 ram32Go, Mvne 2To + 4To + SSD 8To (Ub22.10)
Syno DS1819+ 8x6To (SHR2) et Syno DS1512+ 5x8To (SHR1)

Hors ligne

#8 Le 22/05/2020, à 13:21

maxire

Re : Agrégation de lien

Salut,

hibiki-tokay a écrit :

Jusque la tous a l'aire d'aller, mais je n'ai strictement rien gagné en terme de débit,

En mode 0 c'est à dire active-backup le débit n'est pas amélioré, l'objectif est de basculer automatiquement le trafic réseau vers le périphérique secondaire (enp2s0) en cas de déficience du périphérique primaire (eno1). Oups mode=0 = blance-rr j'ai confondu avec le mode 1 qui est bien active-backup
Si j'ai bien compris le principe de l'agrégation de périphériques réseau en mode 0, je ne suis pas du tout un spécialiste réseau juste un bricoleur avancé.

Logiquement il faudrait que chaque périphérique membre de l'agrégation soient connectés à des réseaux physiques distincts sinon je ne vois pas l'intérêt de ce montage.

2 périphérique agrégés à 1 Gb/s connectés au même réseau physique lui-même fonctionnant à 1 Gb/s (débit maxi du switch) cela ne pourra jamais fonctionner à 2 Gb/s.

Une chose m'étonne c'est qu'une adresse IP est attribuée à enp2s0.

J'ai moi-même 2 ports ethernet dans ma station de travail (je l'utilise comme routeur) je viens de provisoirement mettre en place le bonding comme ceci :

[pirate@frankenstein ~]$ pkexec ip link add bond0 type bond mode 0
[[pirate@frankenstein ~]$ip link
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN mode DEFAULT group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
2: enp1s0: <BROADCAST,MULTICAST> mtu 1500 qdisc fq_codel state DOWN mode DEFAULT group default qlen 1000
    link/ether 50:e5:49:56:72:47 brd ff:ff:ff:ff:ff:ff
3: enp2s0: <BROADCAST,MULTICAST> mtu 1500 qdisc fq_codel state DOWN mode DEFAULT group default qlen 1000
    link/ether 64:ee:b7:23:b3:1f brd ff:ff:ff:ff:ff:ff
5: bond0: <BROADCAST,MULTICAST,MASTER> mtu 1500 qdisc noop state DOWN mode DEFAULT group default qlen 1000
    link/ether da:d5:b4:a9:1d:de brd ff:ff:ff:ff:ff:ff
[pirate@frankenstein ~]$ pkexec ip link set enp2s0 master bond0
[pirate@frankenstein ~]$ pkexec ip link set enp1s0 master bond0
pirate@frankenstein ~]$ pkexec dhcpcd bond0
dhcpcd-9.0.2 starting
DUID 00:01:00:01:26:30:a1:30:64:ee:b7:23:b3:1f
bond0: IAID b4:a9:1d:de
bond0: adding address fe80::d8d5:b4ff:fea9:1dde
bond0: soliciting an IPv6 router
bond0: soliciting a DHCP lease
bond0: offered 192.168.1.22 from 192.168.1.1
bond0: probing address 192.168.1.22/24
bond0: leased 192.168.1.22 for 86400 seconds
bond0: adding route to 192.168.1.0/24
bond0: adding default route via 192.168.1.1
forked to background, child pid 1931
[pirate@frankenstein ~]$ ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: enp1s0: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc fq_codel master bond0 state UP group default qlen 1000
    link/ether da:d5:b4:a9:1d:de brd ff:ff:ff:ff:ff:ff
3: enp2s0: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc fq_codel master bond0 state UP group default qlen 1000
    link/ether da:d5:b4:a9:1d:de brd ff:ff:ff:ff:ff:ff
5: bond0: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether da:d5:b4:a9:1d:de brd ff:ff:ff:ff:ff:ff
    inet 192.168.1.22/24 brd 192.168.1.255 scope global dynamic noprefixroute bond0
       valid_lft 86397sec preferred_lft 75597sec
    inet6 fe80::d8d5:b4ff:fea9:1dde/64 scope link 
       valid_lft forever preferred_lft forever
[pirate@frankenstein ~]$

Tu remarqueras que je me suis contenté d'utiliser le jeu de commandes ip, le module bond est chargé automatiquemen depuis toujours au démarrage de mon système et aucun des ports esclaves ne possède d'adresse IP (sans doute parce que je n'utilise pas les notions d'esclave primaire et d'esclave secondaire).

Dernière modification par maxire (Le 22/05/2020, à 14:00)


Maxire
Archlinux/Mate + Ubuntu 22.04 + Archlinux/Gnome sur poste de travail

Hors ligne

#9 Le 22/05/2020, à 17:23

hibiki.tokay

Re : Agrégation de lien

maxire a écrit :

Logiquement il faudrait que chaque périphérique membre de l'agrégation soient connectés à des réseaux physiques distincts sinon je ne vois pas l'intérêt de ce montage.
2 périphérique agrégés à 1 Gb/s connectés au même réseau physique lui-même fonctionnant à 1 Gb/s (débit maxi du switch) cela ne pourra jamais fonctionner à 2 Gb/s.

non ça ne pose pas de problème si j'en crois la doc sur le site du fabricant https://eu.dlink.com/fr/fr/-/media/busi … _en_eu.pdf
"Capacité de commutation 32Gb/s"
Par contre je vois aussi "Agrégation des liens" 802.3ad et Static trunk

maxire a écrit :

Une chose m'étonne c'est qu'une adresse IP est attribuée à enp2s0.

Effectivement c'est bizarre

maxire a écrit :

Tu remarqueras que je me suis contenté d'utiliser le jeu de commandes ip, le module bond est chargé automatiquemen depuis toujours au démarrage de mon système et aucun des ports esclaves ne possède d'adresse IP (sans doute parce que je n'utilise pas les notions d'esclave primaire et d'esclave secondaire).

et on fais comment pour ça stp


Cooler Master MasterBox Q300L, ASRock B550M Steel Legend, AMD Ryzen 5 5600 , GTX 1050 Ti WINDFORCE, DDR4 32go (Ub22.10)
Portable Lenovo Ideapad Gaming 3 15IHU6 ram32Go, Mvne 2To + 4To + SSD 8To (Ub22.10)
Syno DS1819+ 8x6To (SHR2) et Syno DS1512+ 5x8To (SHR1)

Hors ligne

#10 Le 22/05/2020, à 17:35

maxire

Re : Agrégation de lien

hibiki.tokay a écrit :

et on fais comment pour ça stp

Exactement comme tu peux le lire dans le #8.

Le problème va être d'automatiser le passage de ces commandes au démarrage du système.

Comme je l'ai déjà écrit il existe de multiples possibilités de mettre en place un bonding :
- celle que tu tentes mais qui semble mal fonctionner
- NetworkManager voir ici https://access.redhat.com/documentation … tool_nmcli
- celle qu j'ai utilisée en manuel
et certainement d'autres.

Une remarque la notion d'esclave primaire/secondaire n'est utilisée qu'en mode 1 (active-backup) et non en mode 0 (balance-rr), tu as donc fait une erreur de configuration si tu veux réellement faire de l'équilibrage de charge.


Maxire
Archlinux/Mate + Ubuntu 22.04 + Archlinux/Gnome sur poste de travail

Hors ligne

#11 Le 22/05/2020, à 17:44

hibiki.tokay

Re : Agrégation de lien

maxire a écrit :

Une remarque la notion d'esclave primaire/secondaire n'est utilisée qu'en mode 1 (active-backup) et non en mode 0 (balance-rr), tu as donc fait une erreur de configuration si tu veux réellement faire de l'équilibrage de charge.

C'est fort possible car les exemple que je trouve en général sont pour le mode 1. Je vais continuer a chercher car il doit bien y avoir une solution

Edit

Comment savoir quelle est l'interface qui est utilisé lors d'un transfert de données entre mon nas et mon pc? Car dans le moniteur système c'est le débit général et pas interface par interface

Dernière modification par hibiki.tokay (Le 22/05/2020, à 19:44)


Cooler Master MasterBox Q300L, ASRock B550M Steel Legend, AMD Ryzen 5 5600 , GTX 1050 Ti WINDFORCE, DDR4 32go (Ub22.10)
Portable Lenovo Ideapad Gaming 3 15IHU6 ram32Go, Mvne 2To + 4To + SSD 8To (Ub22.10)
Syno DS1819+ 8x6To (SHR2) et Syno DS1512+ 5x8To (SHR1)

Hors ligne

#12 Le 23/05/2020, à 10:42

hibiki.tokay

Re : Agrégation de lien

Bonjour

Pourriez vous me dire si il est possible de faire un bonding en mode 0 ou 4 car presque toutes les docs que je trouve ne parle que du mode 1
la doc de mon post 7 parle bien du mode 0 mais visiblement ne fonctionne pas.
J'ai fais d'autre tests avec d'autre docs mais dans certains cas mes deux carte étaient carrément désactivé au démarrage de ubuntu


Cooler Master MasterBox Q300L, ASRock B550M Steel Legend, AMD Ryzen 5 5600 , GTX 1050 Ti WINDFORCE, DDR4 32go (Ub22.10)
Portable Lenovo Ideapad Gaming 3 15IHU6 ram32Go, Mvne 2To + 4To + SSD 8To (Ub22.10)
Syno DS1819+ 8x6To (SHR2) et Syno DS1512+ 5x8To (SHR1)

Hors ligne

#13 Le 23/05/2020, à 11:15

maxire

Re : Agrégation de lien

Réponse : oui
Je t'ai donné une solution à automatiser certes en 3 commandes :

sudo ip link add bond0 type bond mode 0
sudo ip link set eno1 master bond0
sudo ip link set enp2s0 master bond0 

Maxire
Archlinux/Mate + Ubuntu 22.04 + Archlinux/Gnome sur poste de travail

Hors ligne

#14 Le 23/05/2020, à 12:58

hibiki.tokay

Re : Agrégation de lien

merci

sudo ip link add bond0 type bond mode 0

sudo ip link set eno1 master bond0
Error: Device can not be enslaved while up.

sudo ip link set enp2s0 master bond0
Error: Device can not be enslaved while up.

si je fais

sudo ifdown eno1
Unknown interface eno1

il me semble que j'avais trouvé cette solution quelque-part mais sans succès

Dernière modification par hibiki.tokay (Le 23/05/2020, à 13:14)


Cooler Master MasterBox Q300L, ASRock B550M Steel Legend, AMD Ryzen 5 5600 , GTX 1050 Ti WINDFORCE, DDR4 32go (Ub22.10)
Portable Lenovo Ideapad Gaming 3 15IHU6 ram32Go, Mvne 2To + 4To + SSD 8To (Ub22.10)
Syno DS1819+ 8x6To (SHR2) et Syno DS1512+ 5x8To (SHR1)

Hors ligne

#15 Le 23/05/2020, à 13:59

maxire

Re : Agrégation de lien

Il faut tout de même arrêter les ports ethernet avant de les modifier et je ne sais pas du tout ce que tu utilises comme gestionnaire de réseau.
Si tu utilises NetworkManager il vaudrait mieux le stopper au préalable.

Pour arrếtér un port ethernet :

sudo ip link set eno1 down

Il faut au préalable supprimer son adresse IP si une adresse IP lui est toujours affectée.


Maxire
Archlinux/Mate + Ubuntu 22.04 + Archlinux/Gnome sur poste de travail

Hors ligne

#16 Le 25/05/2020, à 09:49

hibiki.tokay

Re : Agrégation de lien

Après pas mal de tests et de recherche j'ai trouvé ça https://access.redhat.com/documentation … face_nmtui
En suivant ça j'ai réussi a mettre en place ma connections bond mais toujours pareil pas de gain de vitesse en ce qui concerne mes transferts entre mon pc et mes nas
PC en mode 0 ---> pas de gain
PC en mode 4 ---> pas de gain
je tourne au max a 110Mo/s en nfs

more /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: IEEE 802.3ad Dynamic link aggregation
Transmit Hash Policy: layer2 (0)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0

802.3ad info
LACP rate: slow
Min links: 0
Aggregator selection policy (ad_select): stable

Slave Interface: enp2s0
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: a8:a1:59:16:a1:e7
Slave queue ID: 0
Aggregator ID: 1
Actor Churn State: none
Partner Churn State: churned
Actor Churned Count: 0
Partner Churned Count: 1

Slave Interface: eno1
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: a8:a1:59:16:a2:08
Slave queue ID: 0
Aggregator ID: 2
Actor Churn State: churned
Partner Churn State: churned
Actor Churned Count: 1
Partner Churned Count: 1
ifconfig
bond0: flags=5187<UP,BROADCAST,RUNNING,MASTER,MULTICAST>  mtu 1500
        inet 192.168.1.20  netmask 255.255.255.0  broadcast 192.168.1.255
        inet6 fe80::aaa1:59ff:fe16:a1e7  prefixlen 64  scopeid 0x20<link>
        ether a8:a1:59:16:a1:e7  txqueuelen 1000  (Ethernet)
        RX packets 34685  bytes 43632249 (43.6 MB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 10082  bytes 2129270 (2.1 MB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

eno1: flags=6211<UP,BROADCAST,RUNNING,SLAVE,MULTICAST>  mtu 1500
        ether a8:a1:59:16:a1:e7  txqueuelen 1000  (Ethernet)
        RX packets 572  bytes 54588 (54.5 KB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 19  bytes 2432 (2.4 KB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0
        device interrupt 16  memory 0xa3400000-a3420000  

enp2s0: flags=6211<UP,BROADCAST,RUNNING,SLAVE,MULTICAST>  mtu 1500
        ether a8:a1:59:16:a1:e7  txqueuelen 1000  (Ethernet)
        RX packets 34113  bytes 43577661 (43.5 MB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 10063  bytes 2126838 (2.1 MB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0
        device memory 0xa3300000-a331ffff  

lo: flags=73<UP,LOOPBACK,RUNNING>  mtu 65536
        inet 127.0.0.1  netmask 255.0.0.0
        inet6 ::1  prefixlen 128  scopeid 0x10<host>
        loop  txqueuelen 1000  (Boucle locale)
        RX packets 627  bytes 60110 (60.1 KB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 627  bytes 60110 (60.1 KB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0
ip a show bond0
5: bond0: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether a8:a1:59:16:a1:e7 brd ff:ff:ff:ff:ff:ff
    inet 192.168.1.20/24 brd 192.168.1.255 scope global noprefixroute bond0
       valid_lft forever preferred_lft forever
    inet6 fe80::aaa1:59ff:fe16:a1e7/64 scope link 
       valid_lft forever preferred_lft forever

Dernière modification par hibiki.tokay (Le 25/05/2020, à 10:04)


Cooler Master MasterBox Q300L, ASRock B550M Steel Legend, AMD Ryzen 5 5600 , GTX 1050 Ti WINDFORCE, DDR4 32go (Ub22.10)
Portable Lenovo Ideapad Gaming 3 15IHU6 ram32Go, Mvne 2To + 4To + SSD 8To (Ub22.10)
Syno DS1819+ 8x6To (SHR2) et Syno DS1512+ 5x8To (SHR1)

Hors ligne

#17 Le 25/05/2020, à 10:20

maxire

Re : Agrégation de lien

Salut,

C'est le principe de la résistance de la chaîne celle-ci est toujours celle du maillon le plus faible.
Dans une connexion réseau c'est pareil le débit maxi sera toujours le débit maxi de l'élément du réseau partie de la connexion ayant le débit le plus faible.
Le résultat que tu obtiens n'est pas nécessairement surprenant.


Maxire
Archlinux/Mate + Ubuntu 22.04 + Archlinux/Gnome sur poste de travail

Hors ligne

#18 Le 25/05/2020, à 10:34

hibiki.tokay

Re : Agrégation de lien

ok mais sachant que mes nas on tous un bond, que mon pc en a un maintenant, que chaque connections a son propre câble et port sur le swich et que le swich est capable de restituer 1Gb/s sur chaque port il n'y a aucune raison pour cette limitation???
Non??

Dernière modification par hibiki.tokay (Le 25/05/2020, à 10:35)


Cooler Master MasterBox Q300L, ASRock B550M Steel Legend, AMD Ryzen 5 5600 , GTX 1050 Ti WINDFORCE, DDR4 32go (Ub22.10)
Portable Lenovo Ideapad Gaming 3 15IHU6 ram32Go, Mvne 2To + 4To + SSD 8To (Ub22.10)
Syno DS1819+ 8x6To (SHR2) et Syno DS1512+ 5x8To (SHR1)

Hors ligne

#19 Le 25/05/2020, à 19:01

hibiki.tokay

Re : Agrégation de lien

Je pense peut être avoir compris pourquoi ça ne fonctionne pas mon switch est un D-Link DGS-1100-16 version A1 Doc de mon switch et si j'en crois cette doc a pârtir de la page 25 pas de fonction link agrégation.
Par contre la même version mais plus récente le D-Link DGS-1100-16V2 version A1 Doc de cette version en page 56 parle bien de cette fonction.
Je me suis dit que en mettant le firmware a jour ça rajouterait peut être la fonction mais non de toute façon il est déjà a la dernier version de mon switch la 1.10.016.

Donc je me tâte a en changer étant donné que tous les ports de mon switch actuel sont utilisé et que j'ai l'intention de rajouter un petit switch POE plus tard pour 2 voir 3 cameras

Dernière modification par hibiki.tokay (Le 25/05/2020, à 19:19)


Cooler Master MasterBox Q300L, ASRock B550M Steel Legend, AMD Ryzen 5 5600 , GTX 1050 Ti WINDFORCE, DDR4 32go (Ub22.10)
Portable Lenovo Ideapad Gaming 3 15IHU6 ram32Go, Mvne 2To + 4To + SSD 8To (Ub22.10)
Syno DS1819+ 8x6To (SHR2) et Syno DS1512+ 5x8To (SHR1)

Hors ligne

#20 Le 25/05/2020, à 20:09

maxire

Re : Agrégation de lien

Ton switch possède bien cette fonction d'agrégation appelée ici trunking,
Extrait de sa doc. page 25 :

L2 Features > Port TrunkingThe Trunking function allows the switch to combine two or four ports together to increase bandwidth. Select the Trunking  Groups,  choose  the  Members  to  be  grouped  together,  and  then click Apply  to  activate  the  selected Trunking Groups. Up to eight Trunking Groups may be created, each supporting up to four ports.Disable - Removes all the members in this trunk grou

Il devrait suffire de le régler.


Maxire
Archlinux/Mate + Ubuntu 22.04 + Archlinux/Gnome sur poste de travail

Hors ligne

#21 Le 25/05/2020, à 22:00

hibiki.tokay

Re : Agrégation de lien

Et bien non, je m’étais dis ça aussi hier donc j'ai fais des tests
Si je fais un trunk sur les ports 8 et 9 (mon pc) ---> lenteur, ouverture difficile, plus d'accé a mes nas, internet non plus
Si je fais un autre sur ports 13 à 16 (mon ds1819+) ---> la impossible d'accéder a quoi que ce soit, voir même pire impossible d'ouvrir nemo par exemple (oui c'est bizarre) et j'ai même remarqué que si je veux ouvrir l’éditeur de texte c'est extrêmement long, quand ça ne plante carrément pas.
En plus (et c'est la que je ne comprend pas), quand je vais chercher des infos sur le trunking chez D-link ça correspond a créer des réseaux virtuel séparé les uns des autres

Edit 1
Apres lecture des divers docs D-Link, ils intègrent dans le "Link Agregation" :
Le "Port Trunking" création  de Vlan ou liaison entre 2 switchs
Le "LACP port settings" qui correspondrait au Bond

Edit 2
Dans le cas de mon switch le version Hardware A1 ne gére pas le LACP alors que la version B1 oui (a la période ou je l'ai acheter en janvier 2013 les deux versions étaient vendu sans distinction l'une de l'autre)

Dernière modification par hibiki.tokay (Le 26/05/2020, à 06:55)


Cooler Master MasterBox Q300L, ASRock B550M Steel Legend, AMD Ryzen 5 5600 , GTX 1050 Ti WINDFORCE, DDR4 32go (Ub22.10)
Portable Lenovo Ideapad Gaming 3 15IHU6 ram32Go, Mvne 2To + 4To + SSD 8To (Ub22.10)
Syno DS1819+ 8x6To (SHR2) et Syno DS1512+ 5x8To (SHR1)

Hors ligne

#22 Le 19/07/2020, à 15:44

hibiki.tokay

Re : Agrégation de lien

Bon je reviens car j'ai découvert quelque chose. en fait je ne peut pas avoir un débit supérieur a la vitesse d'un seule des connexions.
En clair actuellement j'ai un bond 480mo/s entre mon nas et mon switch, un bond 240mo/s entre mon pc et mon switch.
Cas 1 ----> si je fait un copier depuis mon nas vers mon pc j'aurais 120mo/s de vitesse et si en même temps je fait un copier entre mon pc et mon nas j'aurais aussi 120mo/s de vitesse (donc là j'aurai bien les 240mo/s) car dans ce cas les deux carte seront utilisé.
Cas 2 ----> si j'encode un film par exemple qui est sur mon nas et que je sauvegarde aussi sur le nas la je serais a 60mo/s depuis le nas et 60mo/s vers le nas (donc 120mo/s car il sagit d'une seul action pour le pc)
Cas 3 ----> 3 pc connecté au nas et chacun une copie depuis le nas j'aurais les 3 pc a 120mo/s donc 360m/s

J'ai posé la question a un ingénieur réseau.
Je pense probablement passer tous en 10giga avec une carte dans le nas, un connecteur a rajouter dans le switch et un adatateur usb 3.1 pour mon pc

Dernière modification par hibiki.tokay (Le 19/07/2020, à 15:58)


Cooler Master MasterBox Q300L, ASRock B550M Steel Legend, AMD Ryzen 5 5600 , GTX 1050 Ti WINDFORCE, DDR4 32go (Ub22.10)
Portable Lenovo Ideapad Gaming 3 15IHU6 ram32Go, Mvne 2To + 4To + SSD 8To (Ub22.10)
Syno DS1819+ 8x6To (SHR2) et Syno DS1512+ 5x8To (SHR1)

Hors ligne