Linux下繫結網路卡的操作記錄

散盡浮華發表於2017-12-03

 

公司採購的伺服器安裝了雙網路卡,並進行bond網路卡繫結設定,網路卡繫結mode共有七種(0~6) bond0、bond1、bond2、bond3、bond4、bond5、bond6。

第一種模式:mod=0 ,即:(balance-rr) Round-robin policy(平衡掄迴圈策略
特點:傳輸資料包順序是依次傳輸(即:第1個包走eth0,下一個包就走eth1….一直迴圈下去,直到最後一個傳輸完畢),此模式提供負載平衡和容錯能力;但是我們知道如果一個連線或者會話的資料包從不同的介面發出的話,中途再經過不同的鏈路,在客戶端很有可能會出現資料包無序到達的問題,而無序到達的資料包需要重新要求被髮送,這樣網路的吞吐量就會下降。

第二種模式:mod=1,即: (active-backup) Active-backup policy(主-備份策略
特點:只有一個裝置處於活動狀態,當一個宕掉另一個馬上由備份轉換為主裝置。mac地址是外部可見得,從外面看來,bond的MAC地址是唯一的,以避免switch(交換機)發生混亂。此模式只提供了容錯能力;由此可見此演算法的優點是可以提供高網路連線的可用性,但是它的資源利用率較低,只有一個介面處於工作狀態,在有 N 個網路介面的情況下,資源利用率為1/N。

第三種模式:mod=2,即:(balance-xor) XOR policy(平衡策略
特點:基於指定的傳輸HASH策略傳輸資料包。預設的策略是:(源MAC地址 XOR 目標MAC地址) % slave數量。其他的傳輸策略可以通過xmit_hash_policy選項指定,此模式提供負載平衡和容錯能力。

第四種模式:mod=3,即:broadcast(廣播策略
特點:在每個slave介面上傳輸每個資料包,此模式提供了容錯能力

第五種模式:mod=4,即:(802.3ad) IEEE 802.3ad Dynamic link aggregation(IEEE 802.3ad 動態連結聚合
特點:建立一個聚合組,它們共享同樣的速率和雙工設定。根據802.3ad規範將多個slave工作在同一個啟用的聚合體下。
外出流量的slave選舉是基於傳輸hash策略,該策略可以通過xmit_hash_policy選項從預設的XOR策略改變到其他策略。需要注意的 是,並不是所有的傳輸策略都是802.3ad適應的,尤其考慮到在802.3ad標準43.2.4章節提及的包亂序問題。不同的實現可能會有不同的適應 性。
必要條件:

  • 條件1:ethtool支援獲取每個slave的速率和雙工設定
  • 條件2:switch(交換機)支援IEEE 802.3ad Dynamic link aggregation
  • 條件3:大多數switch(交換機)需要經過特定配置才能支援802.3ad模式

第六種模式:mod=5,即:(balance-tlb) Adaptive transmit load balancing(介面卡傳輸負載均衡
特點:不需要任何特別的switch(交換機)支援的通道bonding。在每個slave上根據當前的負載(根據速度計算)分配外出流量。如果正在接受資料的slave出故障了,另一個slave接管失敗的slave的MAC地址。
該模式的必要條件:ethtool支援獲取每個slave的速率

第七種模式:mod=6,即:(balance-alb) Adaptive load balancing(介面卡適應性負載均衡
特點:該模式包含了balance-tlb模式,同時加上針對IPV4流量的接收負載均衡(receive load balance, rlb),而且不需要任何switch(交換機)的支援。接收負載均衡是通過ARP協商實現的。bonding驅動截獲本機傳送的ARP應答,並把源硬體地址改寫為bond中某個slave的唯一硬體地址,從而使得不同的對端使用不同的硬體地址進行通訊。
來自伺服器端的接收流量也會被均衡。當本機傳送ARP請求時,bonding驅動把對端的IP資訊從ARP包中複製並儲存下來。當ARP應答從對端到達 時,bonding驅動把它的硬體地址提取出來,併發起一個ARP應答給bond中的某個slave。使用ARP協商進行負載均衡的一個問題是:每次廣播 ARP請求時都會使用bond的硬體地址,因此對端學習到這個硬體地址後,接收流量將會全部流向當前的slave。這個問題可以通過給所有的對端傳送更新 (ARP應答)來解決,應答中包含他們獨一無二的硬體地址,從而導致流量重新分佈。當新的slave加入到bond中時,或者某個未啟用的slave重新 啟用時,接收流量也要重新分佈。接收的負載被順序地分佈(round robin)在bond中最高速的slave上
當某個鏈路被重新接上,或者一個新的slave加入到bond中,接收流量在所有當前啟用的slave中全部重新分配,通過使用指定的MAC地址給每個 client發起ARP應答。下面介紹的updelay引數必須被設定為某個大於等於switch(交換機)轉發延時的值,從而保證發往對端的ARP應答 不會被switch(交換機)阻截。
必要條件:

  • 條件1:ethtool支援獲取每個slave的速率;
  • 條件2:底層驅動支援設定某個裝置的硬體地址,從而使得總是有個slave(curr_active_slave)使用bond的硬體地址,同時保證每個bond 中的slave都有一個唯一的硬體地址。如果curr_active_slave出故障,它的硬體地址將會被新選出來的 curr_active_slave接管

其實mod=6與mod=0的區別:mod=6,先把eth0流量佔滿,再佔eth1,….ethX;而mod=0的話,會發現2個口的流量都很穩定,基本一樣的頻寬。而mod=6,會發現第一個口流量很高,第2個口只佔了小部分流量

下面簡單介紹下bond繫結雙網路卡的操作記錄:

通過網口繫結(bond)技術,可以很容易實現網口冗餘,負載均衡,從而達到高可用高可靠的目的。
2個物理網口分別是:eth0,eth1
繫結後的虛擬口是:bond0
伺服器IP是:10.0.54.28
採用mod=4模式(常用模式)

首先檢視網路卡是否支援bond繫結
[root@test ~]# modinfo bonding |more
filename:       /lib/modules/2.6.32-696.16.1.el6.x86_64/kernel/drivers/net/bonding/bonding.ko
author:         Thomas Davis, tadavis@lbl.gov and many others
description:    Ethernet Channel Bonding Driver, v3.7.1
version:        3.7.1
license:        GPL
alias:          rtnl-link-bond
srcversion:     454FF5806F146AD7FB41356
depends:        
vermagic:       2.6.32-696.16.1.el6.x86_64 SMP mod_unload modversions

然後進行網路卡繫結設定
[root@test ~]# cd /etc/sysconfig/network-scripts/
[root@test network-scripts]# cat ifcfg-eth0
DEVICE=eth0
HWADDR=EC:F4:BB:DC:4C:0C
TYPE=Ethernet
UUID=669f0694-9c52-4792-bd67-22c9d2c17acb
ONBOOT=yes
NM_CONTROLLED=no
BOOTPROTO=none
MASTER=bond0
SLAVE=yes

[root@test network-scripts]# cat ifcfg-eth1
DEVICE=eth1
HWADDR=EC:F4:BB:DC:4C:0D
TYPE=Ethernet
UUID=1d2f30f4-b3f0-41a6-8c37-54f03115f7bd
ONBOOT=yes
NM_CONTROLLED=no
BOOTPROTO=none
MASTER=bond0
SLAVE=yes

[root@test network-scripts]# cat ifcfg-bond0 
DEVICE=bond0
NAME='bond0'
TYPE=Ethernet
NM_CONTROLLED=no
USERCTL=no
ONBOOT=yes
BOOTPROTO=none
IPADDR=10.0.54.28
NETMASK=255.255.255.0
GATEWAY=10.0.54.1
BONDING_OPTS='mode=4 miimon=100'
IPV6INIT=no

[root@test network-scripts]# cat /etc/modprobe.d/bonding.conf       //這個檔案一般需要手動建立
alias bond0 bonding
options bonding mode=4 miimon=100

[root@test network-scripts]# modprobe bonding           //需要執行這一步,不然即使重啟網路卡後,網路不通

重啟網路卡。需要先關閉NetworkManager服務,並設定開啟關閉!
[root@test network-scripts]#/etc/init.d/NetworkManager stop
[root@test network-scripts]# /etc/init.d/network restart

檢視bond網路卡繫結後的模式
[root@test network-scripts]# cat /proc/net/bonding/bond0 
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: IEEE 802.3ad Dynamic link aggregation               //顯示bond網路卡繫結的模式
Transmit Hash Policy: layer2 (0)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0

802.3ad info
LACP rate: slow
Min links: 0
Aggregator selection policy (ad_select): stable
System priority: 65535
System MAC address: 08:94:ef:54:b0:88
Active Aggregator Info:
	Aggregator ID: 2
	Number of ports: 2
	Actor Key: 9
	Partner Key: 1453
	Partner Mac Address: 00:23:04:ee:be:d2

Slave Interface: eth0
MII Status: up                           //檢視網路卡繫結後的狀態 (up or down)                                
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 08:94:ef:54:b0:88
Slave queue ID: 0
Aggregator ID: 2
Actor Churn State: none
Partner Churn State: none
Actor Churned Count: 0
Partner Churned Count: 0
details actor lacp pdu:
    system priority: 65535
    system mac address: 08:94:ef:54:b0:88
    port key: 9
    port priority: 255
    port number: 1
    port state: 61
details partner lacp pdu:
    system priority: 32667
    system mac address: 00:23:04:ee:be:d2
    oper key: 1453
    port priority: 32768
    port number: 8461
    port state: 61

Slave Interface: eth1
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 08:94:ef:54:b0:89
Slave queue ID: 0
Aggregator ID: 2
Actor Churn State: none
Partner Churn State: none
Actor Churned Count: 0
Partner Churned Count: 0
details actor lacp pdu:
    system priority: 65535
    system mac address: 08:94:ef:54:b0:88
    port key: 9
    port priority: 255
    port number: 2
    port state: 61
details partner lacp pdu:
    system priority: 32667
    system mac address: 00:23:04:ee:be:d2
    oper key: 1453
    port priority: 32768
    port number: 8717
    port state: 61

============================================
為了增強伺服器的網路連通性,可以選擇採用mode=1的"主-備份"策略來配置兩個網路卡:每次只有一個網路卡處於活動狀態,在一個網路卡出現問題無法使用
時可以快速的切換到另外一張網路卡上去,保證網路的持續可用。當然缺點是每次只有一個網路卡工作,因此硬體資源的利用率不高。

使用四個物理網路卡,繫結兩組bond,即bond0和bond1。bond0採用mode=4模式,bond1採用mode=1的主備模式。
那麼注意在設定bond0和bond1的時候,別設定兩個閘道器地址,否則網路有問題。bond設定的時候可以不寫閘道器地址。

也可以使用下面的指令碼進行如上的繫結網路卡設定本,這是一個通用指令碼,直接複製即可使用!(指令碼中採用的是mode=4模式,如果採用其他模式,將在指令碼中修改mode配置)

[root@test ~]# cat set_bond.sh 
#!/bin/bash
if [ $# != 4 ] ; then 
echo "USAGE: $0 bondname   eth1  eth2  IP " 
echo " e.g.: $0 bond1 em3  em4  10.0.1.1" 
exit 1
fi 


bondname=$1 
card1=$2
card2=$3
IP=$4

GATEWAY=`echo -n $IP | awk -F '.' '{ print $1 "." $2 "." $3 "." }'`'1'
echo ip address is $IP
echo netmask is 255.255.255.0
echo gateway is $GATEWAY
echo bondname is $bondname

echo   -e "\033[42;33m  do you want to go on (Y|N)(NO and exit default): \033[0m"
read ANS
    case $ANS in
    y|Y|yes|Yes|YES)
       ;;
    n|no|No|NO|N)
     exit 1 
       ;;
     *)
     echo "exit becasuse you cancel it "
     exit 1
      ;; 
    esac
	
#bond0 config
echo "DEVICE=$bondname" > /etc/sysconfig/network-scripts/ifcfg-$bondname
echo "BOOTPROTO=none" >> /etc/sysconfig/network-scripts/ifcfg-$bondname
echo "ONBOOT=yes" >> /etc/sysconfig/network-scripts/ifcfg-$bondname
echo "IPADDR=$IP" >> /etc/sysconfig/network-scripts/ifcfg-$bondname
echo "NETMASK=255.255.255.0" >> /etc/sysconfig/network-scripts/ifcfg-$bondname
echo "GATEWAY=$GATEWAY" >> /etc/sysconfig/network-scripts/ifcfg-$bondname


cat > /etc/sysconfig/network-scripts/ifcfg-$card1 <<EOF
BOOTPROTO=none
DEVICE=$card1
ONBOOT=yes
MASTER=$bondname
SLAVE=yes
EOF

cat > /etc/sysconfig/network-scripts/ifcfg-$card2 <<EOF
BOOTPROTO=none
DEVICE=$card2
ONBOOT=yes
MASTER=$bondname
SLAVE=yes
EOF
	
	
	
#modprobe config
echo "alias $bondname bonding" >> /etc/modprobe.d/bonding.conf
echo "options $bondname miimon=100 mode=4" >> /etc/modprobe.d/bonding.conf
modprobe bonding

#重啟網路卡或重啟機器
/etc/init.d/network  restart

執行指令碼:

[root@test ~]# sh -x set_bond.sh bond0 eth0 eht1 10.0.54.28
.....
yes          //執行過程中需要輸入yes
....

問題:

reboot重啟伺服器後,發現遠端連線不上伺服器。現場登陸伺服器檢視,發現bond0的ip地址不在了!!

原因分析:
伺服器rebboot重啟後,NetworkManager服務預設開啟了,導致network服務啟動不生效!

解決辦法:
# systemctl stop NetworkManager
# systemctl disable NetworkManager
# systemctl restart network
# modprobe bonding

可以把關閉NetworkManager的操作放到系統的初始化指令碼中!

相關文章