文档库 最新最全的文档下载
当前位置:文档库 › 关于双网卡绑定与端口聚合(精)

关于双网卡绑定与端口聚合(精)

关于双网卡绑定与端口聚合(精)
关于双网卡绑定与端口聚合(精)

端口聚合(IEEE802.3ad Port Trunking)可将2至8个10/100Base-TX端口聚合成一条干路,在全双工工作模式下达到400Mbps-1.6Gbps的带宽。端口聚合技术能充分利用现有设备实现高速数据传递,也可以通过千兆端口聚合技术实现千兆位链路的聚合,最多可以聚合4Gbps的链路带宽。 Linux双网卡绑定的实现就是使用两块网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具有相同的 IP地址而并行链接聚合成一个逻辑链路工作。其实这项技术在Sun和Cisco中早已存在,被称为Trunking和Etherchannel 技术,在 Linux的2.4.x的内核中也采用这这种技术,被称为bonding。bonding技术的最早应用是在集群——beowulf上,为了提高集群节点间的数据传输而设计的。下面我们讨论一下bonding 的原理,什么是bonding需要从网卡的混杂(promisc 模式说起。我们知道,在正常情况下,网卡只接收目的硬件地址(MAC Address是自身Mac的以太网帧,对于别的数据帧都滤掉,以减轻驱动程序的负担。但是网卡也支持另外一种被称为混杂promisc的模式,可以接收网络上所有的帧,比如说tcpdump,就是运行在这个模式下。bonding也运行在这个模式下,而且修改了驱动程序中的mac地址,将两块网卡的 Mac地址改成相同,可以接收特定mac的数据帧。然后把相应的数据帧传送给bond驱动程序处理。方案一具体配置示例如下:1、[root@storage6 network-scripts]# cat ifcfg-bond0 # Intel Corporation 80003ES2LAN Gigabit Ethernet Controller (Copper DEVICE=bond0 BOOTPROTO=static

IPADDR=172.16.100.35 NETMASK=255.255.255.0 ONBOOT=yes

GATEWAY=172.16.100.1 BONDING_MASTER=yes TYPE=Ethernet USERCTL=no [root@storage6 network-scripts]# cat ifcfg-eth0 # Intel Corporation 80003ES2LAN Gigabit Ethernet Controller (Copper DEVICE=eth0 BOOTPROTO=none ONBOOT=yes TYPE=Ethernet MASTER=bond0 SLAVE=yes USERCTL=no [root@storage6 network-scripts]# cat ifcfg-eth1

#IntelCorporation80003ES2LANGigabitEthernetController(Copper DEVICE=eth1 BOOTPROTO=none ONBOOT=yes TYPE=Ethernet MASTER=bond0 SLAVE=yes USERCTL=no 2、编辑 /etc/modprobe.conf 文件,加入如下一行内容,以使系统在启动时加载bonding模块,对外虚拟网络接口设备为 bond0 加入下列两行 alias

bond0 bonding options bond0 miimon=100 mode=0 说明:miimon是用来进行链路监测的。比如:miimon=100,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0,1,2,3四种模式,常用的为0,1两种。 mode=0表示load balancing (round-robin为负载均衡方式,两块网卡都工作。 mode=1表示fault-tolerance (active-backup提供冗余功能,工作方式是主备

的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份. bonding只能提供链路监测,即从主机到交换机的链路是否接通。如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用重启网络服务:service network restart [root@storage6 network-scripts]# ifconfig bond0 Link encap:Ethernet HWaddr 00:A0:D1:E8:65:20 inet addr:172.16.100.35 Bcast:172.16.100.255 Mask:255.255.255.0 inet6 addr: fe80::2a0:d1ff:fee8:6520/64 Scope:Link UP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1 RX packets:55025978 errors:0 dropped:0 overruns:0 frame:0 TX

packets:55560375 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:0 RX bytes:34128517375 (31.7 GiB TX bytes:57600166665 (53.6 GiB eth0 Link

encap:Ethernet HWaddr 00:A0:D1:E8:65:20 inet6 addr: fe80::2a0:d1ff:fee8:6520/64 Scope:Link UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1 RX packets:27524452 errors:0 dropped:0 overruns:0 frame:0 TX packets:27788406 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX

bytes:17091910563 (15.9 GiB TX bytes:28812888955 (26.8 GiB Memory:fcde0000-

fce00000 eth1 Link encap:Ethernet HWaddr 00:A0:D1:E8:65:20 inet6 addr:

fe80::2a0:d1ff:fee8:6520/64 Scope:Link UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1 RX packets:27501527 errors:0 dropped:0 overruns:0 frame:0 TX packets:27771974 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:17036606878 (15.8 GiB TX bytes:28787278664 (26.8 GiB Memory:fcdc0000-fcde0000 方案二配置双网卡聚合(自适应负载均衡) modprobe bonding miimon=100 mode=6 ifconfig bond0 192.168.4.15 netmask 255.255.255.0 up

ifenslave bond0 eth0 eth1 cat /proc/net/bonding/bond0 此时交换机无需配置,即可实现负载均衡。

提高服务器高可用性的双网卡绑定聚合技术的应用

提高服务器可用性的多网卡绑定聚合技术的应用 王和平 摘要:通过NICExpress软件对服务器多网卡进行捆绑聚合,以实现增加带宽、负载均衡、故障自动转移等,从而达到服务器的高可靠性和高可用性。 关键词:网卡聚合;服务器;高可用性 一、引言 现今几乎各行各业内部都建立了自己的服务器,由于服务器的特殊地位,它的可靠性、可用性及其I/O速度就显得非常的重要,保持服务器的高可用性和安全性是企业IT环境的重要指标,其中最重要的一点是服务器网络连接的高可用性。本文通过NICExpress软件,通过实际部署服务器多网卡,以提高服务器网络连接的可用性,配合实现构建高可靠性的网络环境。 二、网卡聚合绑定的特点 网卡绑定聚合就是通过软件将多块网卡绑定为一个IP地址,使用起来就好象在使用一块网卡。网卡是计算机和外部联系的主要通道。个人计算机默认安装一块网卡,服务器基本配置应该安装两块网卡。如果服务器上仅安装一块网卡,建议管理员至少增加一块网卡。一块为主网卡,其他为备用网卡,然后再通过网线将对应的网卡连接到同一交换机上。在服务器和交换机之间建立主连接和备用连接。通过NICExpress虚拟网卡软件将多块网卡绑定为一块网卡,或称之为虚拟网卡组,然后为虚拟网卡组设置一个唯一的IP地址。安装多块网卡后,通过多网卡并发方式传输数据,有利于提高网络传输效率,提高系统性能。一旦网卡组中的任何一个物理连接断开,比如网卡出现故障或链路断开,系统软件将自动监测连接状态,出现故障的网卡将自动切换到其他网卡的物理连接上。 在服务器中部署多块网卡聚合绑定后,将具备如下特点: 1.增加带宽。假如网卡的带宽100Mbps,那么理论上两块网卡聚合绑定后的带宽就是200Mbps,三块网卡聚合绑定后的带宽就是300Mbps。当然实际上的效果是不会这样简单相加的,不过经实际测试使用多个网卡绑定对于增加带宽,保持带宽的稳定性肯定是有益的。经过实际测量,三块带宽为100Mbps的网卡绑定后传输总带宽可以达到260Mbps。 2.均衡负载。多块网卡聚合绑定,可以形成网卡冗余阵列、分担负载。多块网卡被聚合绑定成“一块网卡”之后,网卡之间同步工作,对服务器的访问流量被均衡分配到不同网卡上,从而减轻每块网卡的网络负载,增强服务器的并发访问能力,服务器性能。 3.故障自动切换。如果服务器中的任一网卡出现故障,那么其他网卡将自动接管全部负载,过程是无缝的,数据传输不会中断。服务器中的系统服务或者应用不会中断,增强服务器的可用性。 三、网卡绑定聚合的原则 在服务器中部署多块网卡绑定聚合应该遵循以下原则: 1.聚合绑定的网卡型号应该相同、性能指标要一致,否则运行过程中不稳定,容易出错甚至蓝屏。 2.最大网卡数量原则。绑定的网卡越多,总带宽的增加效果似乎就越明显;但其实还应该考虑到网卡绑定聚合后在运行过程中会过多占用服务器资源,反过来会在一定程度影响服务器的运行速度。所以,管理员可以参考计算机配置和管理软件所支持的最大网卡数量。 3.所有的网卡建议连接到同一台交换机上。 四、部署过程 下面以NICExpress软件实际部署为例,说明多网卡的绑定聚合过程。

服务器安装双网卡实现内外网的解决方

今天上午忙活了一天,原因就是我们的机房里的机器上不了网了:作为路由器的主机能够上,但是下面的机器就是上不了,能够ping通主机,但是ping不通外网,所以决定重装。(当然这也不是重装的主要原因,主要是因为机器中毒了,而且杀毒软件还都查不出来,机器总是向城域网的主机发数据包,被教育局全市通报了,呵呵)。于是,格式化c盘,装上win2000server,然后安装驱动程序,一切都很顺利。然后安装网卡。我的机器有2块网卡,一块是realtek8139的,系统能够自驱,连着内网。一块是d-link的,需要自己驱动,连着外网。所以当装好系统以后,总是realtek的那块网卡先驱动起来,然后才是自己动手安装d-link的驱动。结果,按照原来的ip设置设置好以后,服务器自己能够上网,但是子网里的机器却是怎么也上不了。于是上网狂搜。结果终于让我搜到了,原来可能是由于网卡的冲突造成的。对于有两张网卡的同志一定要吸取我的教训啊! (一阵鸡蛋和柿子砸了过来了,“你还没有讲你是怎么解决的呢?”) 对对对,原因就是网卡的安装顺序反了。要先装连接外网的d-link,然后再装内网的realtek 的,具体原因我在这里就不说了,大家自己上网搜一下“双网卡冲突”就有一大堆的。于是我就到设备管理器里面,将两块网卡都卸载掉。然后重起机器,这时候系统自然是先找到realtek的了,这时候我们先不要安装d-link的驱动,而是先将realtek的卸载掉,然后再安装d-link的驱动,接下来再安装realtek的驱动。………… (为什么不在重起之前就直接把realtek的卸载掉重装一编不就行了吗?不是一个道理吗?) 问得好,我也曾经试过这样做,结果就是这个捷径行不通(至少在我试验的时候是失败的),我也不知道具体原因。这位同学如果你一定要知道为什么的话,我给你推荐以为:盖茨先生。怎么样?满意了吗?

网卡链路聚合简单设置实现双倍带宽.

网卡链路聚合简单设置实现双倍带宽 电脑爱好者 2016-02-19 09:01 如今所有主板至少自带一个千兆以太网端口,有些高档主板带有两个端口。很多用户都不知道家用环境下双网卡主板如何充分利用两个网口,其实使用链路聚合(Link aggregation)就是一个好思路。 双倍带宽的链路聚合 链路聚合是指将两条或多条物理以太网链路聚合成一条逻辑链路。所以,如果聚合两个1Gb/s端口,就能获得2GB/s的总聚合带宽(图1)。聚合带宽和物理带宽并不完全相同,它是通过一种负载均衡方式来实现的。在用户需要高性能局域网性能的时候很有帮助,而局域网内如果有NAS则更是如此。比如说我们在原本千兆(1Gb/s)网络下PC和NAS之间的数据传输只能达到100MB/s左右,在链路聚合的方式下多任务传输速度可以突破200MB/s,这其实是一个倍增。 01 链路聚合原本只是一种弹性网络,而不是改变了总的可用吞吐量。比如说如果你通过一条2Gb聚合链路将文件从一台PC传输到另一台PC,就会发现总的最高传输速率最高为1Gb/s。然而如果开始传输两个文件,会看到聚合带宽带来的好处。

简而言之链路聚合增加了带宽但并不提升最高速度,但如果你在使用有多个以太网端口的NAS,NAS就能支持链路聚合,速度的提升是显而易见的。 目前家用的局域网环境不论是线缆还是网卡多数都停留在1Gb/s的水平,如果你想要真正的更高吞吐量改用更高的带宽比如10Gb/s网卡,但对于大多数家庭用户万兆网卡是不太可能的。就算我们使用普通单千兆网卡主板,通过安装外接网卡来增添一个网络端口就能实现效果。 链路聚合准备工作 首先你的PC要有两个以太网端口,想要连接的任何设备同样要有至少两个端口。除了双千兆(或一集成一独立)网卡的主板外,我们还需要一个支持链路聚合(LACP或802.1ad等)的路由器。遗憾的是很多家用路由器不支持链路聚合,选择时要注意路由器具体参数,或者干脆选择一个支持链路聚合的交换机。 除了硬件方面的要求,还需要一款支持链路聚合的操作系统。我们目前广泛使用的Windows 7并没有内置的链路聚合功能,一般微软要求我们使用Windows Server,但其实Windows 8.1和10已经提供了支持了。其实如果操作系统不支持可以考虑使用厂商提供的具有链路聚合功能的驱动程序,比如英特尔PROSet 工具。另外操作系统Linux和OS X都有内置的链路聚合功能,满足了所有先决条件后下面介绍如何实现。 测试平台 主板华硕Rampage IV 处理器英特尔酷睿i7-3970X 内存三星DDR3 32GB 硬盘三星850Pro 1TB(RAID 0) 交换机网件ProSAFE XS708E 10GbE 网卡双端口10GBASE-T P2E10G-2-T 线缆 CAT7

链路聚合配置命令

目录 1 链路聚合配置命令................................................................................................................................ 1-1 1.1 链路聚合配置命令............................................................................................................................. 1-1 1.1.1 description .............................................................................................................................. 1-1 1.1.2 display lacp system-id ............................................................................................................ 1-2 1.1.3 display link-aggregation member-port.................................................................................... 1-2 1.1.4 display link-aggregation summary.......................................................................................... 1-4 1.1.5 display link-aggregation verbose............................................................................................ 1-5 1.1.6 enable snmp trap updown...................................................................................................... 1-7 1.1.7 interface bridge-aggregation .................................................................................................. 1-8 1.1.8 lacp port-priority...................................................................................................................... 1-8 1.1.9 lacp system-priority................................................................................................................. 1-9 1.1.10 link-aggregation mode........................................................................................................ 1-10 1.1.11 port link-aggregation group ................................................................................................ 1-10 1.1.12 reset lacp statistics............................................................................................................. 1-11 1.1.13 shutdown ............................................................................................................................ 1-11

dell服务器双网卡绑定与端口聚合

Broadcom Gigabit Ethernet Adapter Teaming 任何可用的千兆BRODCOM网卡都可以配置为TEAM的一部分.TEAMING是一种将多块千兆BRODCOM网卡绑定作为一个虚拟网卡.好处就是负载均衡. 通过选择每一个可用的千兆BRODCOM网卡并添加它们到负载均衡成员栏来创建TEAM.对于用户和应用程序,只看到一个虚的网卡. 负载均衡组中的成员共享绑定的数据流. 在一个基本的成员区域中,任一个千兆BRODCOM网卡都可以被指定为主成员负责数据流的控制,而指定为备用成员的网卡只有在所有的主 成员网卡都失败时,才开始接管数据流.一旦任一个主成员网卡恢复,数据马上由该主成员控制. 创建teaming包含下列几个步骤: * 打开BASP属性窗口 * 创建teams * 添加网卡到teams * 分配一个IP地址给teamss * 重启机器 BASP是适用于windows2003,windows2000,windowsNT,Redhat Liunx,NetWare的一个broadcom的中介型驱动程 序,需要先安装对应的broadcom网卡驱动程序. 目前它提供了负载均衡;错误冗余;VLAN高级功能,都通过创建teaming来实现. 注意: 一个team可以包含1到8个网卡,每个网卡都可以指定为主成员或备用成员. BASP的负载均衡;错误冗余功能支持与第三方厂商网卡在同一个team中协同工作. BASP FOR Windows 2000 & 20003 & NT提供以下选项: - 支持下列网卡作为故障应急(failover) Alteon AceNic,3COM 10/100 Server adapters;intel 10/1000 server

服务器双网卡设置同时上内外网route命令

服务器双网卡设置同时上内外网 首先需要有两块网卡,分别接到两个路由上。 外网 internet 地址:192.168.1.1 子网掩码: 255.255.255.0,网关: 192.168.1.1 内网地址: 192.168.42.129 子网掩码:255.255.255.0 网关:192.168.42.132 按正常的设置每块网卡的ip(或通过DHCP自动获取),再cmd下使用route print查看时会看到 即指向0.0.0.0的有两个网关,这样就会出现路由冲突,两个网络的访问都会出现问题。我们需要手动配置路由,才能实现同时访问两个网络。运行cmd(win需要管理员权限) 第一步: route delete 0.0.0.0 ::删除所有的0.0.0.0的路由 第二步:route -p add 0.0.0.0 mask 0.0.0.0 mask 192.168.1.1(此处是IP,不是网关) ::添加0.0.0.0网络路由,这个是缺省时路由用192.168.1.1,加上-p的目的是设为静态(永久)路由,防止下次重起时配置消失。 第三步: route -p add 192.168.42.0 mask 255.255.255.0 192.168.42.132 ::添加 192.168.42.0网段路由为192.168.42.132内网路由,可以根据需要调整ip段和子网掩码太到多网段内网路由的效果。 执行后,永久路由就多了二项了

因为上面我们添加的是静态路由,所以,重起后,tcp/ip设置里的默认网络会成为活动网关,这样也会造成路由冲突,所以,需要把内网的tcp/ip设置里的网关去掉 注:第三步 route -p add 192.168.42.0 mask 255.255.255.0 192.168.42.132添加路由的时候,如果目标服务器和添加的路由(本网卡)IP没有在一个网段,那么第三步改成:route -p add 192.168.0.0 mask 255.255.255.0 192.168.42.132

配置交换机端口聚合

配置交换机端口聚合(思科、华为、锐捷) 2008-08-18 16:27 思科命令行配置: CLI:SW#conf t SW(config)#interface range f1/1 -2 SW(config-if)#channel-group 1 mode desirable/on SW(config-if)#swithport SW(config-if)#switchport mode trunk SW(config-if)#switchport trunk encap dot1q 可以通过 interface port-channel 1 进入端口通道 华为端口聚合配置: 华为交换机的端口聚合可以通过以下命令来实现: S3250(config)#link-aggregation port_num1 to port_num2 {ingress | ingress-egress} 其中port_num1是起始端口号,port_num2是终止端口号。 ingress/ingress-egress这个参数选项一般选为ingress-egress。 在做端口聚合的时候请注意以下几点: 1、每台华为交换机只支持1个聚合组 2、每个聚合组最多只能聚合4个端口。 3、参加聚合的端口号必须连续。 对于聚合端口的监控可以通过以下命令来实现: S3026(config)#show link-aggregation [master_port_num] 其中master_port_num是参加聚合的端口中端口号最小的那个端口。 通过这条命令可以显示聚合组中包括哪些端口等一些与端口聚合相关的参数。 锐捷端口聚合配置: Switch#configure terminal Switch(config)#interface range fastethernet 1/1-2 Switch(config-if-range)#port-group 5 Switch(config-if-range)#switchport mode trunk 你可以在全局配置模式下使用命令#interface aggregateport n(n为AP号) 来直接创建一个AP(如果AP n不存在)。 配置aggregate port的流量平衡 aggregateport load-balance {dst-mac | src-mac |ip} 设置AP的流量平衡,选择使用的算法: dst-mac:根据输入报文的目的MAC地址进行流量分配。在AP各链路中,目的MAC地址相同的报文被送到相同的接口,目的MAC不同的报文分配到不同的接口

dell服务器双网卡绑定与端口聚合

端口聚合(IEEE802.3ad Port Trunking) 可将2至8个10/100Base-TX端口聚合成一条干路,在全双工工作模式下达到400Mbps-1.6Gbps的带宽。端口聚合技术能充分利用现有设备实现高速数据传递,也可以通过千兆端口聚合技术实现千兆位链路的聚合,最多可以聚合4Gbps的链路带宽。 Broadcom Gigabit Ethernet Adapter Teaming 任何可用的千兆BRODCOM网卡都可以配置为TEAM的一部分.TEAMING是一种将多块千兆BRODCOM 网卡绑定作为一个虚拟网卡.好处就是负载均衡. 通过选择每一个可用的千兆BRODCOM网卡并添加它们到负载均衡成员栏来创建TEAM.对于用户和应用程序,只看到一个虚的网卡. 负载均衡组中的成员共享绑定的数据流. 在一个基本的成员区域中,任一个千兆BRODCOM网卡都可以被指定为主成员负责数据流的控制,而指定为备用成员的网卡只有在所有的主 成员网卡都失败时,才开始接管数据流.一旦任一个主成员网卡恢复,数据马上由该主成员控制. 创建teaming包含下列几个步骤: * 打开BASP属性窗口 * 创建teams * 添加网卡到teams * 分配一个IP地址给teamss * 重启机器 BASP是适用于windows2003,windows2000,windowsNT,Redhat Liunx,NetWare的一个broadcom的中介型驱动程 序,需要先安装对应的broadcom网卡驱动程序. 目前它提供了负载均衡;错误冗余;VLAN高级功能,都通过创建teaming来实现. 注意: 一个team可以包含1到8个网卡,每个网卡都可以指定为主成员或备用成员. BASP的负载均衡;错误冗余功能支持与第三方厂商网卡在同一个team中协同工作. BASP FOR Windows 2000 & 20003 & NT提供以下选项: - 支持下列网卡作为故障应急(failover) Alteon AceNic,3COM 10/100 Server adapters;intel 10/1000 server adapters;intel 1000baseSX server adapter; intel 82559 板载网卡 - 智能负载均衡,交换机不需设置. - 普通链路聚合(GEC/FEC,Open Trunk),需要在交换机上启用trunking - IEEE802.3ad链路聚合(静态配置),需要交换机支持802.3ad - 通过IEEE802.1Q-1988tagging,每个网卡最多支持64个VLANS,只支持braodcom或Alteon网卡

服务器双网卡的冗余备份

1. 软件使用原则 服务器接入可以通过使用网卡捆绑软件实现热备冗余,对于服务器双网卡捆绑软件的选择可遵循以下几点原则: 兼容性好,能在不同品牌网卡上使用; 中断恢复快; 能检测深层中断,即能检测到非直连设备的中断。 2. 推荐软件 NIC Express 4.0是一款兼容性较好的捆绑软件,它能兼容Broadcom、D-Link等常见网卡,但在Intel网卡上安装会造成大量丢包。 Inter Proset是针对Intel网卡的专用网卡捆绑软件,但Inter Proset只能在Intel网卡上使用,且不支持深层中断的检测。 3. 软件设置 NIC Express 4.0 使用NIC Express的ELB模式,将网络检测这一关键参数设置为Status Packet,而不能使用Auto,因为设置为Auto 只能检测到直连部分的中断情况,而设置为Status Packet可以通过发状态包,检测到网络中的非直连部分的中断,响应时间更快。其余可使用默认设置。 Inter Proset 使用默认设置即可,另外需要注意: 使用Inter Proset的网卡有隐含的主备关系,即只有主用工作,主用网卡中断后隐含的主备关系交换,再接回后主备关系不变化。本文所有测试时,都使用2号网卡为主用的情况。 4. 三种测试方式 中断服务器网线测试 测试方式: 中断服务器所连网线,再接回,看有无中断。 测试结论: 使用网卡捆绑软件后,中断任意一条网线或接回均不会造成数据传输中断。 中断交换机间网线测试 测试方式: 采用单一中断和组合中断方式测试。 测试结论: 单一或组合中断②号网线,由于交换机重新协商STP,会中断50秒左右。 单一或组合中断⑦号网线,NIC Express 4.0由于可检测深层中断,所以不会造成中断; 而Inter Proset无法检测到下一级网络中断,中断或接回⑦号网线,都会中断45秒左右。 交换机断电测试 测试方式:分别关闭两台核心Cisco3550、两台服务器接入Cisco2950,再开机,测试中断情况。 测试结论: 关闭或打开根交换机(核心主用Cisco3550)电源,由于根漂移,STP重新协商,需中断45秒左右。另外3台交换机关开机均不会造成数据传输中断。

交换机汇聚配置

(1)交换机的基本配置 (2)在交换机上创建聚合接口 (3)在交换机上配置聚合端口 (4)端口聚合增加交换机之间的传输带宽,验证当一条链路断开时仍能互相通信。 第一步:交换机A的基本配置。 SwitchA(config)#vlan 10 SwitchA(config-vlan)#name sales SwitchA(config-vlan)#exit SwitchA(config)#interface fastEthernet0/5 SwitchA(config-if)#switchport access vlan 10 验证测试:验证已创建了VLAN 10,并将0/5端口已划分到VLAN 10中。SwitchA#show vlan id 10 VLAN Name Status Ports -------------------------------------------------------------------------------------------------------- 10 sales active Fa0/5 第二步:在交换机SwitchA上配置聚合端口。 SwitchA(config)#interface aggregateport 1 !创建聚合接口AG1 SwitchA(config-if)#switchport mode trunk !配置AG模式为trunk SwitchA(config-if)#exit SwitchA(config)#interface range fastEthernet 0/1-2 !进入接口0/1和0/2 SwitchA(config-if-range)#port-group 1 !配置接口0/1和0/2属于AG1验证测试:验证接口fastEthernet0/1和0/2属于AG1。 SwitchA#show aggregatePort 1 summary !查看端口聚合组1的信息AggregatePort MaxPorts SwitchPort Mode Ports -------------------------------------------------------------------------------------------------- Ag1 8 Enabled Trunk Fa0/1, Fa0/2 注:AG1,最大支持端口数为8个,当前VLAN模式为Trunk,组成员有F0/1、F0/2。 第三步:交换机B的基本配置。 (具体步骤与SwitchA类似) 第四步:在交换机SwitchB上配置聚合端口。 (具体步骤与SwitchA类似) 第五步:验证当交换机直接的一条链路断开时,PC1与PC2仍能互相通信。 注意事项: (1)只有同类型端口才能聚合为一个AG端口。 (2)所有物理端口必须属于同一个VLAN。 (3)在锐捷交换机上最多支持8个物理端口聚合为一个AG。 (4)在锐捷交换机上最多支持6组聚合端口。 参考配置: SwitchA#show running-config !显示交换机SwitchA的全部配置 Bui lding configuration… Current configuration : 497 bytes

双网卡汇聚详细图文教程(精)

双网卡汇聚详细图文教程 双网卡汇聚详细图文教程首先先看下我汇聚好的设备管理器图 集成的两块网卡都是INTEL 82574L的安装最新的网卡驱动会自动把INTEL分组的功能集成进去 因为服务器正在带机运行所以不能为大家做各个步骤的详细图 1、安装INTEL的网卡驱动(我安装的是14.4) 2、驱动完毕后在设备管理器里右键点INTEL的网卡,选属性 3、属性里选分组 4、选与其他适配器分区,选新组 5、组名随便添,例如:易游无盘分组,下一步 6、钩选你要搭建负载的网卡,下一步 7、选择组模式,模式选适应性负载平衡,如果你的交换机支持链路聚合,选静态链路聚合也可以(我的交换机支持所以我选择的是静态交换机型号H3C S5024P) 8、设置你的组,选择主、从卡 有些朋友汇聚好后问为什么汇聚好的是1G而不是2G 别急交换机那里还需要设置的不过首先你的交换机要支持聚合功能 下面来看看交换机 注:新建端口汇聚时,汇聚端口类型应设为一致,而且端口的工作速率不能设为自协商,且不同速率的端口不能配置为同一个汇聚组,聚合组中的所有端口必须为全双工(FULL)。开始我就犯了这个错误没有调整结果百试不成功 我的服务器在交换机上接口为6 and 23 在端口设置里设置如图

两个端口都设置好后转到端口汇聚功能页勾选你刚才设置的两个端口到汇聚组1 如图 H3C有4种汇聚算法: 1:SA(源MAC地址)2:DA(目的MAC地址)3:SA+DA4:SA+DA+IP 每中汇聚方法适应不同类型网络,需要根据实际情况做出选择。否则将会导致严重的网络问题。端口名:对应端口的名称普通组:设置该端口为非汇聚组汇聚组:设置该端口为汇聚组我这里使用的是第三种算法SA+DA 也就是源MAC地址+目的MAC地址 这样我们就完成了交换机的汇聚功能配置 在选择组类型时候会出现很多类型下面给大家列出各种类型的说明 高级网络服务(ANS) 组类型 适配器容错 适应性负载平衡 静态链接聚合 IEEE 802.3ad 动态链接聚合

端口汇聚实例超全

第一步:下载并安装驱动和管理软件: 大家可以到博通官网根据网卡型号选择驱动和管理软件。 下载地址:https://www.wendangku.net/doc/c11270117.html,/support/ethernet_nic/management_applications.php 选择好网卡型号之后,点击网卡型号就可以下载对应的驱动程序+管理软件包了,如下图: 以上是选择2008/2012/Windows 7的

软件启动好之后,在Teams(组,也就是汇聚的意思)上鼠标右键,点击Create Team

下图是让你设置组名称,默认即可,继续点Next。

下图是让你选择将哪块网卡添加到汇聚组中,选择上面的网卡之后,然后点Add即可。我们建议大家在有4块网卡的时候每块创建1个汇聚组,分别用户负载系统和游戏,假如你服务器就只负载系统,或者只负载游戏,那么4个做成一组汇聚也可以。

到这里,VLAN的设置已经完成,点击“Commit changes to system and Exit the wizard”(完成设置,保存设置并退出设置向导)按照下图的操作,然后点Finish。 点击Finish后,会出现下图提示,点Yes,完成汇聚。 正在按照之前的设置,完成汇聚!

ok,至此,汇聚设置已经完成!那么完成汇聚之后,还需要做一件非常重要的事情!那就是修改网卡参数,如果不修改网卡参数,那可能导致汇聚效果不理想,具体的设置方法如下图,设置建议:无盘为什么要修改网卡参数?怎么改? 声明: 本文由(死性不改)原创编译,转载请保留链接: https://www.wendangku.net/doc/c11270117.html,/technologynews/focus/1943.html

多块网卡的负载平衡设置

多网卡负载均衡 NICExpress软件下载地址: https://www.wendangku.net/doc/c11270117.html,/soft/36156.htm 注册码: 名称:https://www.wendangku.net/doc/c11270117.html, 序列号: 381567 =============================================== 前言:市面上现在天生支持绑定功能的网卡不多,而且多是出身名门的高档服务器网卡,身价不菲,设置过程也比较专业,使用和维护都不简便。难道我等平头百姓,攥着几十元的廉价8139的兄弟们就无缘领略双网卡绑定的快感了吗?非也,今天我就教大家一招,只需一款小小的软件,就可以用普通的8139之类的网卡体验一把双网卡绑定的愉悦,这个软件就叫做“NICExpress”,可能行家们已经捂着嘴乐了,呵呵,笔者的出发点是给菜鸟兄弟们排难解惑,穷办法自娱自乐,说得过火的地方,大家不要见笑,DIY的乐趣就在于此啊。 朋友或许会问了,为什么要用双网卡呢?用双网卡有什么好处?所谓双网卡,就是通过软件将双网卡绑定为一个IP地址,这个技术对于许多朋友来说并不陌生,许多高档服务器网卡(例如intel8255x系列、3COM 服务器网卡等)都具有多网卡绑定功能,可以通过软硬件设置将两块或者多块网卡绑定在同一个IP地址上,使用起来就好象在使用一块网卡。 广告:d_text 多网卡绑定的优点不少,首先,可以增大带宽,假如一个网卡的带宽是100M,理论上两块网卡就是200M,三块就是300M,当然实际上的效果是不会是这样简单的增加的,不过经实际测试使用多个网卡对于增加带宽,保持带宽的稳定性肯定是有裨益的,如果交换机等相关条件不错的话,这个效果还是很能令人满意;其次,可以形成网卡冗余阵列、分担负载,双网卡被绑定成“一块网卡”之后,同步一起工作,对服务器的访问流量被均衡分担到两块网卡上,这样每块网卡的负载压力就小多了,抗并发访问的能力提高,保证了服务器访问的稳定和畅快,当其中一块发生故障的时候,另一块立刻接管全部负载,过程是无缝的,服务不会中断,直到维修人员到来。 OK,现在就手把手的教大家如何用50元来打造出双网卡的效果! 先下载软件(点击这里下载NIC Express Enterprise),这是最新版本4.0,只有2.15M,软件的兼容性已经做得很好,支持win98/Me/2000/XP/2003。基本上支持目前市场上常见的各种网卡,百兆和千兆网卡都可以用来绑定,但是千万注意,最好用于绑定的网卡是完全相同的,至少也是基于同一芯片的,这样多块网卡才能合作得比较好。切记不要把10M网卡和100M网卡绑定在一起,那样根本起不到提升作用。 下载完软件,先不忙安装,咱们还是先准备好硬件。 第一部分:硬件安装 虽然,理论上讲绑定越多网卡在一起,最终效果提升就越明显,但是考虑到复杂程度,这里就以绑定双网卡为例进行说明,如果读者觉得好玩,兴致很高的话,按照下面方法愿意绑定多少就绑定多少个网卡,其实一般同一台服务器,绑定2-3块网卡也就够了,太多了,据说因为链路聚合的先天缺点,会过多占用服务器资源,反过来会影响服务器速度(关于这个我没实验,不过我觉得凡事都离不开物极必反的道理,适度最好)。 我取出“珍藏”的一对市场上随处可见的8139D10M/100M自适应网卡,市场价格25元一个,北京某厂的产品,做工还算精细,总成本50元人民币。

服务器双网卡绑定知识讲解

双网卡绑定实践 Windows平台下常用的双网卡绑定软件有Intel PROSet、NICExpress。本文主要介绍用Intel PROset实现双网卡绑定的方法。 英特尔PROSet 是一个高级的配置实用程序,可用来测试英特尔网络适配器并配置标准和高级功能。通常Intel网卡的驱动包中就包含这个程序,在安装驱动的时候PROSet默认是被安装的。 测试环境: 测试机:R525 G3,Intel双千兆网卡 OS:windows 2003 server 企业版32位 终端:联想笔记本(用于测试服务器双网卡绑定效果) 步骤: 1、打开设备管理器,双击任意一块Intel 82576; 注意R525 G3默认有3块网卡,82574L是管理网口 2、在弹出的配置对话框中,选择分组页面。此时由于系统中的网卡没有进行绑定,因此此

时组下拉列表框是灰色不可选的,单击“新组”; 3、在弹出的“新组向导”对话框中,填写组的名称,下一步; 4、钩选需要绑定的两个网卡,下一步;

5、这里列出了可选择的网卡绑定的模式,常用的是容错和负载平衡。这里我们选择容错,单击下一步; 6、完成向导;

7、此时我们可以看到刚才的分组页面中组的下拉列表中已经有team1; 8、同时弹出的还有team1的属性对话框,单击设置页面,可以看到其中一块网卡状态为“活动”,另一块网卡装状态为“待命”。在此界面中还可进行删除组和修改组的操作,单击“修改组”;

9、在弹出的对话框中,可以设置双网卡的主从关系,如不进行设定,此关系是不固定的。即:当断掉当前活动状态的主网口时,待命的网口将接替主网口的位置,对外提供服务,并成为主网口。当之前断开的网口恢复后,主从关系不会改变,该网口变为待命状态。 10、固定主从关系,设置当前活动的网口为主适配器,待命网口为次适配器;

配置交换机端口聚合(思科、华为、锐捷)

配置交换机端口聚合(思科、华为、锐捷) 2008-08-18 16:27 思科命令行配置:CLI:SW#conf t SW(config)#interface range f1/1 -2 SW(config-if)# channel-group 1 mode desirable/on SW(config-if)#swithport SW(config-if)#switchport mode trunk SW(config-if)#switchport trunk encap dot1q 可以通过interface port-channel 1 进入端口通道 华为端口聚合配置:华为交换机的端口聚合可以通过以下命令来实现: S3250(config)#link-aggregation port_num1 to port_num2 {ingress | ingress-egress} 其中port_num1 是起始端口号,port_num2 是终止端口号。ingress/ingress-egress 这个参数选项一般选为ingress-egress 。在做端口聚合的时候请注意以下几点: 1、每台华为交换机只支持1 个聚合组 2、每个聚合组最多只能聚合4 个端口。 3、参加聚合的端口号必须连续。对于聚合端口的监控可以通过以下命令来实现: S3026(config)#show link-aggregation [master_port_num] 其中master_port_num 是参加聚合的端口中端口号最小的那个端口。通过这条命令可以显示聚合组中包括哪些端口等一些与端口聚合相关的参数。 锐捷端口聚合配置: Switch#configure terminal Switch(config)#interface range fastethernet 1/1-2 Switch(config-if-range)# port-group 5 Switch(config-if-range)#switchport mode trunk 你可以在全局配置模式下使用命令#inteface aggregateport n(n 为AP号)来直接创建一个AP(如果AP n不存在)。 配置aggregate port 的流量平衡 aggregateport load-balance {dst-mac | src-mac |ip} 设置AP的流量平衡,选择使用的算法: dst-mac :根据输入报文的目的MAC地址进行流量分配。在AP各链路中,目的MAC地址相同的报文被送到相同的接口,目的MAC不同的报文分配到不同的接口src-mac :根据输入报文的源MAC地址进行流量分配。在AP各链路中,来自不同地址的报文分配到不同的接口,来自相同的地址的报文使用相同的接口。 ip:根据源IP与目的IP进行流量分配。不同的源IP――目的IP对的流量通过不同的端口转发,同一源IP――目的IP对通过相同的链路转发,其它的源IP―― 目的IP 对通过其它的链路转发。

Linux下配置双网卡聚合

一、背景 CentOS6.6 Ethernet: em1 em2 em3 em4 bond0 192.168.51.134/24 bond1 192.168.52.135、24 GW 192.168.51.1 GW 192.168.52.1 VLAN 51 52 前提:查看8021q模块有没有挂载,如果没有的话就进行手动挂载 # lsmsg |grep 8021q # modprobe 8021q 二、配置: 1.配置em1、em2配置文件并将这两块网卡绑定为bond0 # cd /etc/sysconfig/network-scripts/ # vim ifcfg-em1 DEVICE=em1 TYPE=Ethernet UUID=bcf7fa28-5807-4126-a7e6-d16bb5ddd32b ONBOOT=yes BOOTPROTO=none #HWADDR=18:66:DA:4C:FC:E6 DEFROUTE=yes #IPV4_FAILURE_FATAL=yes #IPV6INIT=no MASTER=bond0 SLAVE=yes USERCTL=yes PS:这里HWA DDR、UUID一行可以注释掉,因为后面重启network服务的时候可能会提示MA C地址重复,当然如果不提示最好 2.配置em2、em3、em4如上配置参数,其中em3、em4的MASTER=bond1 3.复制或创建ifcfg-bond0、ifcfg-bond1,并修改文件内容如下 # cp ifcfg-em1 ifcfg-bond0 # vim ifcfg-bond0 DEVICE=bond0 BOOTPROTO=none ONBOOT=yes TYPE=Ethernet BONDING_OPTS="mode=2 miimon=100" VLAN=yes

dell服务器双网卡绑定与端口聚合

端口聚合( Port Trunking ) 可将2至8个10/100Base-TX 端口聚合成一条干路,在全双工工作模式下达到的带宽。端口聚合技术能充分利用现有设备实现高速数据传递,也可以通过千兆端口聚合技术实现千兆位链路的聚合,最多可以聚合4Gbps的链路带宽。 Broadcom Gigabit Ethernet Adapter Teaming 任何可用的千兆BRODCO网卡都可以配置为TEAM勺一部分.TEAMING是一种将多块千兆BRODCC网卡绑定作为一个虚拟网卡. 好处就是负载均衡. 通过选择每一个可用的千兆BRODCC网卡并添加它们到负载均衡成员栏来创建TEAM对于用户和应用程序 只看到一个虚的网卡. 负载均衡组中的成员共享绑定的数据流. 在一个基本的成员区域中,任一个千兆BRODCOM卡都可以被指定为主成员负责数据流的控制,而指定为备用成员的网卡只有在所有的主 成员网卡都失败时,才开始接管数据流.一旦任一个主成员网卡恢复,数据马上由该主成员控制. 创建teaming 包含下列几个步骤: * 打开BASP属性窗口 * 创建teams * 添加网卡到teams * 分配一个IP 地址给teamss * 重启机器 BASP是适用于windows2003,windows2000,windowsNT,Redhat Liunx,NetWare 的一个broadcom 的中介型驱动程 序, 需要先安装对应的broadcom 网卡驱动程序.

目前它提供了负载均衡;错误冗余;VLAN高级功能,都通过创建teaming来实现. 注意:一个team可以包含1到8个网卡,每个网卡都可以指定为主成员或备用成员. BASP的负载均衡;错误冗余功能支持与第三方厂商网卡在同一个team中协同工作. BASP FOR Windows 2000 & 20003 & NT提供以下选项: - 支持下列网卡作为故障应急(failover) Alteon AceNic,3COM 10/100 Server adapters;intel 10/1000 server adapters;intel 1000baseSX server adapter; intel 82559 板载网卡 - 智能负载均衡, 交换机不需设置. - 普通链路聚合(GEC/FEC,Open Trunk), 需要在交换机上启用trunking - 链路聚合( 静态配置), 需要交换机支持 - 通过,每个网卡最多支持64个VLANS只支持braodcom或Alteon网卡 BASP FOR RH Linux 提供以下几种team 的模式: - 智能负载均衡 普通链路聚合(GEC/FEC,Open Trunk), 需要在交换机上启用trunking 链路聚合( 静态配置), 需要交换机支持 - VLAN Pachket tagging Smart Load Balancing (SLB) ?

相关文档
相关文档 最新文档