文档库 最新最全的文档下载
当前位置:文档库 › dell服务器双网卡绑定与端口聚合

dell服务器双网卡绑定与端口聚合

dell服务器双网卡绑定与端口聚合
dell服务器双网卡绑定与端口聚合

端口聚合(IEEE802.3ad Port Trunking)

可将2至8个10/100Base-TX端口聚合成一条干路,在全双工工作模式下达到400Mbps-1.6Gbps的带宽。端口聚合技术能充分利用现有设备实现高速数据传递,也可以通过千兆端口聚合技术实现千兆位链路的聚合,最多可以聚合4Gbps的链路带宽。

Broadcom Gigabit Ethernet Adapter Teaming

任何可用的千兆BRODCOM网卡都可以配置为TEAM的一部分.TEAMING是一种将多块千兆BRODCOM 网卡绑定作为一个虚拟网卡.好处就是负载均衡.

通过选择每一个可用的千兆BRODCOM网卡并添加它们到负载均衡成员栏来创建TEAM.对于用户和应用程序,只看到一个虚的网卡.

负载均衡组中的成员共享绑定的数据流.

在一个基本的成员区域中,任一个千兆BRODCOM网卡都可以被指定为主成员负责数据流的控制,而指定为备用成员的网卡只有在所有的主

成员网卡都失败时,才开始接管数据流.一旦任一个主成员网卡恢复,数据马上由该主成员控制.

创建teaming包含下列几个步骤:

* 打开BASP属性窗口

* 创建teams

* 添加网卡到teams

* 分配一个IP地址给teamss

* 重启机器

BASP是适用于windows2003,windows2000,windowsNT,Redhat Liunx,NetWare的一个broadcom的中介型驱动程

序,需要先安装对应的broadcom网卡驱动程序.

目前它提供了负载均衡;错误冗余;VLAN高级功能,都通过创建teaming来实现.

注意: 一个team可以包含1到8个网卡,每个网卡都可以指定为主成员或备用成员.

BASP的负载均衡;错误冗余功能支持与第三方厂商网卡在同一个team中协同工作.

BASP FOR Windows 2000 & 20003 & NT提供以下选项:

- 支持下列网卡作为故障应急(failover)

Alteon AceNic,3COM 10/100 Server adapters;intel 10/1000 server

adapters;intel 1000baseSX server adapter;

intel 82559 板载网卡

- 智能负载均衡,交换机不需设置.

- 普通链路聚合(GEC/FEC,Open Trunk),需要在交换机上启用trunking

- IEEE802.3ad链路聚合(静态配置),需要交换机支持802.3ad

- 通过IEEE802.1Q-1988tagging,每个网卡最多支持64个VLANS,只支持braodcom或Alteon网卡

BASP FOR RH Linux 提供以下几种team的模式:

- 智能负载均衡

- 普通链路聚合(GEC/FEC,Open Trunk),需要在交换机上启用trunking

- IEEE802.3ad链路聚合(静态配置),需要交换机支持802.3ad

- VLAN Pachket tagging

Smart Load Balancing (SLB)?

Broadcom 的负载均衡使用IP流。该属性通过在多个网卡上以双向方式均衡网络IP流量。当处于这种模式下,所有的在同一个队中的网卡使用物理网卡的MAC地址。提供错误监测和在成员网卡或备用成员网卡中的动态冗余切换,该工作机制通过第3层协议来实现,可以在2层或3层交换机中工作。对于负载均衡的TEAM, 交换机上不需要做相关配置.

Link Aggregation (802.3ad)

链路聚合模式基于IEEE 802.3ad(LACP)规范。该模式允许客户动态的修改队列中网卡的属性。如果链路双方没有正确的按照802.3ad 配置,那末系统会标志出错误。所有的成员网卡通过相同的MAC地址接受数据包。链路聚合模式中链路必须有一方处于活动状态。

Generic Link Aggregation (Trunking)

Trunking模式跟802.3ad十分相同,不提供LACP等协议的支持。该模式只能静态的修改链路一端来适应不同的网络环境,比如说朗讯的'OpenTrunk'或者CISCO的'Fast EtherConnect(FEC).换句话说,Trunking 是802.3ad的简易版。

-------------------------------------------

问题如下:

DELL的双网卡绑定的带宽扩展是基于端口聚合得以实现的,如果交换设备不支持802.3ad,则双网卡绑定仅能实现(主/备用端口)模式,而如需双网卡同时以双工方式工作,则必须交换设备对802.3ad的支持,不知我的如上理解是否正确?

图解戴尔iDRAC服务器远程控制设置

图解戴尔iDRAC服务器远程控制设置 哦。 那么什么是iDRAC呢?iDRAC又称为Integrated Dell Remote?Access Controller,也就是集成戴尔远程控制卡,这是戴尔服务器的独有功能,iDRAC卡相当于是附加在服务器上的一计算机,可以实现一对一的服务器远程管理与监控,通过与服务器主板上的管理芯片BMC进行通信,监控与管理服务器的硬件状态信息。它拥有自己的系统和IP地址,与服务器上的OS无关。是管理员进行远程访问和管理的利器,戴尔服务器集成了iDRAC控制卡,我们就可以扔掉价格昂贵的KVM设备了。在戴尔第12代服务器中,iDRAC的版本升级到了iDRAC 7,下面我们将以戴尔PowerEdge R820为例,为您图解iDRAC的一步步设置。 戴尔服务器的iDRAC远程控制接口,在图的右下角,有“iDRAC”字样 iDRAC的网口在服务器的背面,一般都标注iDRAC的字样。在戴尔第12代服务器中,这个网口使用了1Gbps的网口,速度更快。一般情况下,iDRAC功能默认都是关闭,我们需要在BIOS里面启用,首先我们先重启计算机,然后进入BIOS,选择iDRAC Setting。 在BIOS中选择iDRAC设置 BIOS中iDRAC详细的设置列表 进入iDRAC Setting之后,我们看到很多详细的设置,一般情况下我们只要设置网络Network就可以了。 在BIOS中开启iDRAC功能 首先我们需要先启用iDRAC功能,戴尔PowerEdge R820的iDRAC接口采用了千兆网卡,所以我们在Enable NC选项中选择Enable,NC Selection选项中选择Dedicated(iDRAC7

提高服务器高可用性的双网卡绑定聚合技术的应用

提高服务器可用性的多网卡绑定聚合技术的应用 王和平 摘要:通过NICExpress软件对服务器多网卡进行捆绑聚合,以实现增加带宽、负载均衡、故障自动转移等,从而达到服务器的高可靠性和高可用性。 关键词:网卡聚合;服务器;高可用性 一、引言 现今几乎各行各业内部都建立了自己的服务器,由于服务器的特殊地位,它的可靠性、可用性及其I/O速度就显得非常的重要,保持服务器的高可用性和安全性是企业IT环境的重要指标,其中最重要的一点是服务器网络连接的高可用性。本文通过NICExpress软件,通过实际部署服务器多网卡,以提高服务器网络连接的可用性,配合实现构建高可靠性的网络环境。 二、网卡聚合绑定的特点 网卡绑定聚合就是通过软件将多块网卡绑定为一个IP地址,使用起来就好象在使用一块网卡。网卡是计算机和外部联系的主要通道。个人计算机默认安装一块网卡,服务器基本配置应该安装两块网卡。如果服务器上仅安装一块网卡,建议管理员至少增加一块网卡。一块为主网卡,其他为备用网卡,然后再通过网线将对应的网卡连接到同一交换机上。在服务器和交换机之间建立主连接和备用连接。通过NICExpress虚拟网卡软件将多块网卡绑定为一块网卡,或称之为虚拟网卡组,然后为虚拟网卡组设置一个唯一的IP地址。安装多块网卡后,通过多网卡并发方式传输数据,有利于提高网络传输效率,提高系统性能。一旦网卡组中的任何一个物理连接断开,比如网卡出现故障或链路断开,系统软件将自动监测连接状态,出现故障的网卡将自动切换到其他网卡的物理连接上。 在服务器中部署多块网卡聚合绑定后,将具备如下特点: 1.增加带宽。假如网卡的带宽100Mbps,那么理论上两块网卡聚合绑定后的带宽就是200Mbps,三块网卡聚合绑定后的带宽就是300Mbps。当然实际上的效果是不会这样简单相加的,不过经实际测试使用多个网卡绑定对于增加带宽,保持带宽的稳定性肯定是有益的。经过实际测量,三块带宽为100Mbps的网卡绑定后传输总带宽可以达到260Mbps。 2.均衡负载。多块网卡聚合绑定,可以形成网卡冗余阵列、分担负载。多块网卡被聚合绑定成“一块网卡”之后,网卡之间同步工作,对服务器的访问流量被均衡分配到不同网卡上,从而减轻每块网卡的网络负载,增强服务器的并发访问能力,服务器性能。 3.故障自动切换。如果服务器中的任一网卡出现故障,那么其他网卡将自动接管全部负载,过程是无缝的,数据传输不会中断。服务器中的系统服务或者应用不会中断,增强服务器的可用性。 三、网卡绑定聚合的原则 在服务器中部署多块网卡绑定聚合应该遵循以下原则: 1.聚合绑定的网卡型号应该相同、性能指标要一致,否则运行过程中不稳定,容易出错甚至蓝屏。 2.最大网卡数量原则。绑定的网卡越多,总带宽的增加效果似乎就越明显;但其实还应该考虑到网卡绑定聚合后在运行过程中会过多占用服务器资源,反过来会在一定程度影响服务器的运行速度。所以,管理员可以参考计算机配置和管理软件所支持的最大网卡数量。 3.所有的网卡建议连接到同一台交换机上。 四、部署过程 下面以NICExpress软件实际部署为例,说明多网卡的绑定聚合过程。

服务器安装双网卡实现内外网的解决方

今天上午忙活了一天,原因就是我们的机房里的机器上不了网了:作为路由器的主机能够上,但是下面的机器就是上不了,能够ping通主机,但是ping不通外网,所以决定重装。(当然这也不是重装的主要原因,主要是因为机器中毒了,而且杀毒软件还都查不出来,机器总是向城域网的主机发数据包,被教育局全市通报了,呵呵)。于是,格式化c盘,装上win2000server,然后安装驱动程序,一切都很顺利。然后安装网卡。我的机器有2块网卡,一块是realtek8139的,系统能够自驱,连着内网。一块是d-link的,需要自己驱动,连着外网。所以当装好系统以后,总是realtek的那块网卡先驱动起来,然后才是自己动手安装d-link的驱动。结果,按照原来的ip设置设置好以后,服务器自己能够上网,但是子网里的机器却是怎么也上不了。于是上网狂搜。结果终于让我搜到了,原来可能是由于网卡的冲突造成的。对于有两张网卡的同志一定要吸取我的教训啊! (一阵鸡蛋和柿子砸了过来了,“你还没有讲你是怎么解决的呢?”) 对对对,原因就是网卡的安装顺序反了。要先装连接外网的d-link,然后再装内网的realtek 的,具体原因我在这里就不说了,大家自己上网搜一下“双网卡冲突”就有一大堆的。于是我就到设备管理器里面,将两块网卡都卸载掉。然后重起机器,这时候系统自然是先找到realtek的了,这时候我们先不要安装d-link的驱动,而是先将realtek的卸载掉,然后再安装d-link的驱动,接下来再安装realtek的驱动。………… (为什么不在重起之前就直接把realtek的卸载掉重装一编不就行了吗?不是一个道理吗?) 问得好,我也曾经试过这样做,结果就是这个捷径行不通(至少在我试验的时候是失败的),我也不知道具体原因。这位同学如果你一定要知道为什么的话,我给你推荐以为:盖茨先生。怎么样?满意了吗?

服务器操作系统安装手册-0.2

项目名称 Linux系统安装配置规范 北京龙运通科技有限公司 版权所有

版本信息

主要内容 1.应用服务器安装 (5) 1.1基本配置信息 (5) 1.2分区 (5) 1.3防火墙 (5) 1.4语言 (5) 1.5时区 (5) 1.6root口令 (5) 1.7软件包 (5) 1.8Nagios (6) 2.系统配置 (7) 2.1修改系统打开最大文件句柄数量 (7) 2.2配置默认运行级别 (7) 2.3配置时间同步 (7) 2.4应用程序 (7) 2.5回收passwd命令权限 (7) 2.6系统添加用户规则 (8) 2.7网路配置 (8) 2.8关闭无用服务注意系统自启动级别里需要关闭 (9) 2.9建立运维操作员账号yw001 (9) 3.防止SSH暴力破解 (10)

4.设置GRUP密码 (12) 5.运维账号下获取日志脚本 (13) 6.备注 (14)

1.应用服务器安装 1.1基本配置信息 操作系统版本:redhatAS4update5 32bit 硬盘Raid类型为:1 1.2分区 /boot 100M / 20G /usr/local >=50G /var 20G /home 10G /tmp 10G Swap 8G 1 1.3防火墙 No Firewall Disable SELinux 1.4语言 English(USA), Chinese(P.R. of China) 1.5时区 Asia/Shanghai 1.6r o o t口令 安装时设置root默认口令为delldell 1.7软件包 X窗口系统默认38个 Gnome 桌面环境默认41个 图形化互联网只安装浏览器1个 开发工具默认+expect 58个 老的软件开发默认6个 系统工具默认+wireshark-gnome+ net-snmp-utils14个管理工具默认11个

网卡链路聚合简单设置实现双倍带宽.

网卡链路聚合简单设置实现双倍带宽 电脑爱好者 2016-02-19 09:01 如今所有主板至少自带一个千兆以太网端口,有些高档主板带有两个端口。很多用户都不知道家用环境下双网卡主板如何充分利用两个网口,其实使用链路聚合(Link aggregation)就是一个好思路。 双倍带宽的链路聚合 链路聚合是指将两条或多条物理以太网链路聚合成一条逻辑链路。所以,如果聚合两个1Gb/s端口,就能获得2GB/s的总聚合带宽(图1)。聚合带宽和物理带宽并不完全相同,它是通过一种负载均衡方式来实现的。在用户需要高性能局域网性能的时候很有帮助,而局域网内如果有NAS则更是如此。比如说我们在原本千兆(1Gb/s)网络下PC和NAS之间的数据传输只能达到100MB/s左右,在链路聚合的方式下多任务传输速度可以突破200MB/s,这其实是一个倍增。 01 链路聚合原本只是一种弹性网络,而不是改变了总的可用吞吐量。比如说如果你通过一条2Gb聚合链路将文件从一台PC传输到另一台PC,就会发现总的最高传输速率最高为1Gb/s。然而如果开始传输两个文件,会看到聚合带宽带来的好处。

简而言之链路聚合增加了带宽但并不提升最高速度,但如果你在使用有多个以太网端口的NAS,NAS就能支持链路聚合,速度的提升是显而易见的。 目前家用的局域网环境不论是线缆还是网卡多数都停留在1Gb/s的水平,如果你想要真正的更高吞吐量改用更高的带宽比如10Gb/s网卡,但对于大多数家庭用户万兆网卡是不太可能的。就算我们使用普通单千兆网卡主板,通过安装外接网卡来增添一个网络端口就能实现效果。 链路聚合准备工作 首先你的PC要有两个以太网端口,想要连接的任何设备同样要有至少两个端口。除了双千兆(或一集成一独立)网卡的主板外,我们还需要一个支持链路聚合(LACP或802.1ad等)的路由器。遗憾的是很多家用路由器不支持链路聚合,选择时要注意路由器具体参数,或者干脆选择一个支持链路聚合的交换机。 除了硬件方面的要求,还需要一款支持链路聚合的操作系统。我们目前广泛使用的Windows 7并没有内置的链路聚合功能,一般微软要求我们使用Windows Server,但其实Windows 8.1和10已经提供了支持了。其实如果操作系统不支持可以考虑使用厂商提供的具有链路聚合功能的驱动程序,比如英特尔PROSet 工具。另外操作系统Linux和OS X都有内置的链路聚合功能,满足了所有先决条件后下面介绍如何实现。 测试平台 主板华硕Rampage IV 处理器英特尔酷睿i7-3970X 内存三星DDR3 32GB 硬盘三星850Pro 1TB(RAID 0) 交换机网件ProSAFE XS708E 10GbE 网卡双端口10GBASE-T P2E10G-2-T 线缆 CAT7

DELL服务器RAID配置详细教程

D E L L服务器R A I D配置教程 在启动电脑的时候按CTRL+R进入RAID设置见面如下图 名称解释: Disk?Group:磁盘组,这里相当于是阵列,例如配置了一个RAID5,就是一个磁盘组 VD(Virtual?Disk):?虚拟磁盘,虚拟磁盘可以不使用阵列的全部容量,也就是说一个磁盘组可以分为多个VD PD(Physical?Disk):?物理磁盘 HS:Hot?Spare?热备 Mgmt:管理 【一】创建逻辑磁盘 1、按照屏幕下方的虚拟磁盘管理器提示,在VD?Mgmt菜单(可以通过 CTRL+P/CTRL+N切换菜单),按F2展开虚拟磁盘创建菜单 2、在虚拟磁盘创建窗口,按回车键选择”Create?New?VD”创建新虚拟磁盘 3、在RAID?Level选项按回车,可以出现能够支持的RAID级别,RAID卡能够支持的级别有RAID0/1/5/10/50,根据具体配置的硬盘数量不同,这个位置可能出现的选项也会有所区别。 选择不同的级别,选项会有所差别。选择好需要配置的RAID级别(我们这里以RAID5为例),按回车确认。 4、确认RAID级别以后,按向下方向键,将光标移至Physical?Disks列表中,上下移动至需要选择的硬盘位置,按空格键来选择(移除)列表中的硬盘,当选择的硬盘数量达到这个RAID级别所需的要求时,Basic?Settings的VD?Size中可以显示这个RAID的默认容量信息。有X标志为选中的硬盘。 选择完硬盘后按Tab键,可以将光标移至VD?Size栏,VD?Size可以手动设定大小,也就是说可以不用将所有的容量配置在一个虚拟磁盘中。如果这个虚拟磁盘没有使用我们所配置的RAID5阵列所有的容量,剩余的空间可以配置为另外的一个虚拟磁盘,但是配置下一个虚拟磁盘时必须返回VD?Mgmt创建(可以参考第13步,会有详细说明)。VD?Name根据需要设置,也可为空。 注:各RAID级别最少需要的硬盘数量,RAID0=1,RAID1=2,RAID5=3,RAID10=4,RAID50=6 5、修改高级设置,选择完VD?Size后,可以按向下方向键,或者Tab键,将光标移至Advanced?Settings处,按空格键开启(禁用)高级设置。如果开启后(红框处有X标志为开启),可以修改Stripe?Element?Size大小,以及阵列的Read?Policy 与Write?Policy,Initialize处可以选择是否在阵列配置的同时进行初始化。 高级设置默认为关闭(不可修改),如果没有特殊要求,建议不要修改此处的设置。

dell服务器双网卡绑定与端口聚合

Broadcom Gigabit Ethernet Adapter Teaming 任何可用的千兆BRODCOM网卡都可以配置为TEAM的一部分.TEAMING是一种将多块千兆BRODCOM网卡绑定作为一个虚拟网卡.好处就是负载均衡. 通过选择每一个可用的千兆BRODCOM网卡并添加它们到负载均衡成员栏来创建TEAM.对于用户和应用程序,只看到一个虚的网卡. 负载均衡组中的成员共享绑定的数据流. 在一个基本的成员区域中,任一个千兆BRODCOM网卡都可以被指定为主成员负责数据流的控制,而指定为备用成员的网卡只有在所有的主 成员网卡都失败时,才开始接管数据流.一旦任一个主成员网卡恢复,数据马上由该主成员控制. 创建teaming包含下列几个步骤: * 打开BASP属性窗口 * 创建teams * 添加网卡到teams * 分配一个IP地址给teamss * 重启机器 BASP是适用于windows2003,windows2000,windowsNT,Redhat Liunx,NetWare的一个broadcom的中介型驱动程 序,需要先安装对应的broadcom网卡驱动程序. 目前它提供了负载均衡;错误冗余;VLAN高级功能,都通过创建teaming来实现. 注意: 一个team可以包含1到8个网卡,每个网卡都可以指定为主成员或备用成员. BASP的负载均衡;错误冗余功能支持与第三方厂商网卡在同一个team中协同工作. BASP FOR Windows 2000 & 20003 & NT提供以下选项: - 支持下列网卡作为故障应急(failover) Alteon AceNic,3COM 10/100 Server adapters;intel 10/1000 server

服务器双网卡设置同时上内外网route命令

服务器双网卡设置同时上内外网 首先需要有两块网卡,分别接到两个路由上。 外网 internet 地址:192.168.1.1 子网掩码: 255.255.255.0,网关: 192.168.1.1 内网地址: 192.168.42.129 子网掩码:255.255.255.0 网关:192.168.42.132 按正常的设置每块网卡的ip(或通过DHCP自动获取),再cmd下使用route print查看时会看到 即指向0.0.0.0的有两个网关,这样就会出现路由冲突,两个网络的访问都会出现问题。我们需要手动配置路由,才能实现同时访问两个网络。运行cmd(win需要管理员权限) 第一步: route delete 0.0.0.0 ::删除所有的0.0.0.0的路由 第二步:route -p add 0.0.0.0 mask 0.0.0.0 mask 192.168.1.1(此处是IP,不是网关) ::添加0.0.0.0网络路由,这个是缺省时路由用192.168.1.1,加上-p的目的是设为静态(永久)路由,防止下次重起时配置消失。 第三步: route -p add 192.168.42.0 mask 255.255.255.0 192.168.42.132 ::添加 192.168.42.0网段路由为192.168.42.132内网路由,可以根据需要调整ip段和子网掩码太到多网段内网路由的效果。 执行后,永久路由就多了二项了

因为上面我们添加的是静态路由,所以,重起后,tcp/ip设置里的默认网络会成为活动网关,这样也会造成路由冲突,所以,需要把内网的tcp/ip设置里的网关去掉 注:第三步 route -p add 192.168.42.0 mask 255.255.255.0 192.168.42.132添加路由的时候,如果目标服务器和添加的路由(本网卡)IP没有在一个网段,那么第三步改成:route -p add 192.168.0.0 mask 255.255.255.0 192.168.42.132

DELL服务器RAID配置详细教学教程

DELL服务器RAID配置教程 在启动电脑的时候按CTRL+R 进入RAID 设置见面如下图 名称解释: Disk Group:磁盘组,这里相当于是阵列,例如配置了一个RAID5,就是一个磁盘组VD(Virtual Disk):虚拟磁盘,虚拟磁盘可以不使用阵列的全部容量,也就是说一个磁盘组可以分为多个VD PD(Physical Disk):物理磁盘 HS:Hot Spare 热备 Mgmt:管理 【一】创建逻辑磁盘 1、按照屏幕下方的虚拟磁盘管理器提示,在VD Mgmt菜单(可以通过CTRL+P/CTRL+N 切换菜单),按F2展开虚拟磁盘创建菜单 2、在虚拟磁盘创建窗口,按回车键选择”Create New VD”创建新虚拟磁盘

3、在RAID Level选项按回车,可以出现能够支持的RAID级别,RAID卡能够支持的级别有RAID0/1/5/10/50,根据具体配置的硬盘数量不同,这个位置可能出现的选项也会有所区别。 选择不同的级别,选项会有所差别。选择好需要配置的RAID级别(我们这里以RAID5为例),按回车确认。

4、确认RAID级别以后,按向下方向键,将光标移至Physical Disks列表中,上下移动至需要选择的硬盘位置,按空格键来选择(移除)列表中的硬盘,当选择的硬盘数量达到这个RAID级别所需的要求时,Basic Settings的VD Size中可以显示这个RAID的默认容量信息。有X标志为选中的硬盘。 选择完硬盘后按Tab键,可以将光标移至VD Size栏,VD Size可以手动设定大小,也就是说可以不用将所有的容量配置在一个虚拟磁盘中。如果这个虚拟磁盘没有使用我们所配置的RAID5阵列所有的容量,剩余的空间可以配置为另外的一个虚拟磁盘,但是配置下一个虚拟磁盘时必须返回VD Mgmt创建(可以参考第13步,会有详细说明)。VD Name根据需要设置,也可为空。 注:各RAID级别最少需要的硬盘数量,RAID0=1,RAID1=2,RAID5=3,RAID10=4,RAID50=6 5、修改高级设置,选择完VD Size后,可以按向下方向键,或者Tab键,将光标移至Advanced Settings处,按空格键开启(禁用)高级设置。如果开启后(红框处有X标志为开启),可以修改Stripe Element Size大小,以及阵列的Read Policy与Write Policy,Initialize 处可以选择是否在阵列配置的同时进行初始化。 高级设置默认为关闭(不可修改),如果没有特殊要求,建议不要修改此处的设置。

dell服务器双网卡绑定与端口聚合

端口聚合(IEEE802.3ad Port Trunking) 可将2至8个10/100Base-TX端口聚合成一条干路,在全双工工作模式下达到400Mbps-1.6Gbps的带宽。端口聚合技术能充分利用现有设备实现高速数据传递,也可以通过千兆端口聚合技术实现千兆位链路的聚合,最多可以聚合4Gbps的链路带宽。 Broadcom Gigabit Ethernet Adapter Teaming 任何可用的千兆BRODCOM网卡都可以配置为TEAM的一部分.TEAMING是一种将多块千兆BRODCOM 网卡绑定作为一个虚拟网卡.好处就是负载均衡. 通过选择每一个可用的千兆BRODCOM网卡并添加它们到负载均衡成员栏来创建TEAM.对于用户和应用程序,只看到一个虚的网卡. 负载均衡组中的成员共享绑定的数据流. 在一个基本的成员区域中,任一个千兆BRODCOM网卡都可以被指定为主成员负责数据流的控制,而指定为备用成员的网卡只有在所有的主 成员网卡都失败时,才开始接管数据流.一旦任一个主成员网卡恢复,数据马上由该主成员控制. 创建teaming包含下列几个步骤: * 打开BASP属性窗口 * 创建teams * 添加网卡到teams * 分配一个IP地址给teamss * 重启机器 BASP是适用于windows2003,windows2000,windowsNT,Redhat Liunx,NetWare的一个broadcom的中介型驱动程 序,需要先安装对应的broadcom网卡驱动程序. 目前它提供了负载均衡;错误冗余;VLAN高级功能,都通过创建teaming来实现. 注意: 一个team可以包含1到8个网卡,每个网卡都可以指定为主成员或备用成员. BASP的负载均衡;错误冗余功能支持与第三方厂商网卡在同一个team中协同工作. BASP FOR Windows 2000 & 20003 & NT提供以下选项: - 支持下列网卡作为故障应急(failover) Alteon AceNic,3COM 10/100 Server adapters;intel 10/1000 server adapters;intel 1000baseSX server adapter; intel 82559 板载网卡 - 智能负载均衡,交换机不需设置. - 普通链路聚合(GEC/FEC,Open Trunk),需要在交换机上启用trunking - IEEE802.3ad链路聚合(静态配置),需要交换机支持802.3ad - 通过IEEE802.1Q-1988tagging,每个网卡最多支持64个VLANS,只支持braodcom或Alteon网卡

服务器双网卡的冗余备份

1. 软件使用原则 服务器接入可以通过使用网卡捆绑软件实现热备冗余,对于服务器双网卡捆绑软件的选择可遵循以下几点原则: 兼容性好,能在不同品牌网卡上使用; 中断恢复快; 能检测深层中断,即能检测到非直连设备的中断。 2. 推荐软件 NIC Express 4.0是一款兼容性较好的捆绑软件,它能兼容Broadcom、D-Link等常见网卡,但在Intel网卡上安装会造成大量丢包。 Inter Proset是针对Intel网卡的专用网卡捆绑软件,但Inter Proset只能在Intel网卡上使用,且不支持深层中断的检测。 3. 软件设置 NIC Express 4.0 使用NIC Express的ELB模式,将网络检测这一关键参数设置为Status Packet,而不能使用Auto,因为设置为Auto 只能检测到直连部分的中断情况,而设置为Status Packet可以通过发状态包,检测到网络中的非直连部分的中断,响应时间更快。其余可使用默认设置。 Inter Proset 使用默认设置即可,另外需要注意: 使用Inter Proset的网卡有隐含的主备关系,即只有主用工作,主用网卡中断后隐含的主备关系交换,再接回后主备关系不变化。本文所有测试时,都使用2号网卡为主用的情况。 4. 三种测试方式 中断服务器网线测试 测试方式: 中断服务器所连网线,再接回,看有无中断。 测试结论: 使用网卡捆绑软件后,中断任意一条网线或接回均不会造成数据传输中断。 中断交换机间网线测试 测试方式: 采用单一中断和组合中断方式测试。 测试结论: 单一或组合中断②号网线,由于交换机重新协商STP,会中断50秒左右。 单一或组合中断⑦号网线,NIC Express 4.0由于可检测深层中断,所以不会造成中断; 而Inter Proset无法检测到下一级网络中断,中断或接回⑦号网线,都会中断45秒左右。 交换机断电测试 测试方式:分别关闭两台核心Cisco3550、两台服务器接入Cisco2950,再开机,测试中断情况。 测试结论: 关闭或打开根交换机(核心主用Cisco3550)电源,由于根漂移,STP重新协商,需中断45秒左右。另外3台交换机关开机均不会造成数据传输中断。

双网卡汇聚详细图文教程(精)

双网卡汇聚详细图文教程 双网卡汇聚详细图文教程首先先看下我汇聚好的设备管理器图 集成的两块网卡都是INTEL 82574L的安装最新的网卡驱动会自动把INTEL分组的功能集成进去 因为服务器正在带机运行所以不能为大家做各个步骤的详细图 1、安装INTEL的网卡驱动(我安装的是14.4) 2、驱动完毕后在设备管理器里右键点INTEL的网卡,选属性 3、属性里选分组 4、选与其他适配器分区,选新组 5、组名随便添,例如:易游无盘分组,下一步 6、钩选你要搭建负载的网卡,下一步 7、选择组模式,模式选适应性负载平衡,如果你的交换机支持链路聚合,选静态链路聚合也可以(我的交换机支持所以我选择的是静态交换机型号H3C S5024P) 8、设置你的组,选择主、从卡 有些朋友汇聚好后问为什么汇聚好的是1G而不是2G 别急交换机那里还需要设置的不过首先你的交换机要支持聚合功能 下面来看看交换机 注:新建端口汇聚时,汇聚端口类型应设为一致,而且端口的工作速率不能设为自协商,且不同速率的端口不能配置为同一个汇聚组,聚合组中的所有端口必须为全双工(FULL)。开始我就犯了这个错误没有调整结果百试不成功 我的服务器在交换机上接口为6 and 23 在端口设置里设置如图

两个端口都设置好后转到端口汇聚功能页勾选你刚才设置的两个端口到汇聚组1 如图 H3C有4种汇聚算法: 1:SA(源MAC地址)2:DA(目的MAC地址)3:SA+DA4:SA+DA+IP 每中汇聚方法适应不同类型网络,需要根据实际情况做出选择。否则将会导致严重的网络问题。端口名:对应端口的名称普通组:设置该端口为非汇聚组汇聚组:设置该端口为汇聚组我这里使用的是第三种算法SA+DA 也就是源MAC地址+目的MAC地址 这样我们就完成了交换机的汇聚功能配置 在选择组类型时候会出现很多类型下面给大家列出各种类型的说明 高级网络服务(ANS) 组类型 适配器容错 适应性负载平衡 静态链接聚合 IEEE 802.3ad 动态链接聚合

图解戴尔iDRAC服务器远程控制设置

图解戴尔iDRAC服务器远程控制设置 对于远程的服务器,我们不能经常性的去机房维护,所以远程控制对于服务器来说就显得至关重要。那么你是用什么方式对服务器进行远程控制呢?远程桌面?还是KVM切换器?NO,你OUT了!如果你用的是戴尔的服务器,那么iDRAC功能不使用的话就是个极大的浪费哦。 那么什么是iDRAC呢?iDRAC又称为Integrated Dell Remote Access Controller,也就是集成戴尔远程控制卡,这是戴尔服务器的独有功能,iDRAC卡相当于是附加在服务器上的一计算机,可以实现一对一的服务器远程管理与监控,通过与服务器主板上的管理芯片BMC进行通信,监控与管理服务器的硬件状态信息。它拥有自己的系统和IP地址,与服务器上的OS无关。是管理员进行远程访问和管理的利器,戴尔服务器集成了iDRAC控制卡,我们就可以扔掉价格昂贵的KVM设备了。在戴尔第12代服务器中,iDRAC的版本升级到了iDRAC 7,下面我们将以戴尔PowerEdge R820为例,为您图解iDRAC的一步步设置。

戴尔服务器的iDRAC远程控制接口,在图的右下角,有“iDRAC”字样iDRAC的网口在服务器的背面,一般都标注iDRAC的字样。在戴尔第12代服务器中,这个网口使用了1Gbps的网口,速度更快。一般情况下,iDRAC功能默认都是关闭,我们需要在BIOS里面启用,首先我们先重启计算机,然后进入BIOS,选择iDRAC Setting。

在BIOS中选择iDRAC设置 BIOS中iDRAC详细的设置列表 进入iDRAC Setting之后,我们看到很多详细的设置,一般情况下我们只要设置网络Network就可以了。

端口汇聚实例超全

第一步:下载并安装驱动和管理软件: 大家可以到博通官网根据网卡型号选择驱动和管理软件。 下载地址:https://www.wendangku.net/doc/2812756219.html,/support/ethernet_nic/management_applications.php 选择好网卡型号之后,点击网卡型号就可以下载对应的驱动程序+管理软件包了,如下图: 以上是选择2008/2012/Windows 7的

软件启动好之后,在Teams(组,也就是汇聚的意思)上鼠标右键,点击Create Team

下图是让你设置组名称,默认即可,继续点Next。

下图是让你选择将哪块网卡添加到汇聚组中,选择上面的网卡之后,然后点Add即可。我们建议大家在有4块网卡的时候每块创建1个汇聚组,分别用户负载系统和游戏,假如你服务器就只负载系统,或者只负载游戏,那么4个做成一组汇聚也可以。

到这里,VLAN的设置已经完成,点击“Commit changes to system and Exit the wizard”(完成设置,保存设置并退出设置向导)按照下图的操作,然后点Finish。 点击Finish后,会出现下图提示,点Yes,完成汇聚。 正在按照之前的设置,完成汇聚!

ok,至此,汇聚设置已经完成!那么完成汇聚之后,还需要做一件非常重要的事情!那就是修改网卡参数,如果不修改网卡参数,那可能导致汇聚效果不理想,具体的设置方法如下图,设置建议:无盘为什么要修改网卡参数?怎么改? 声明: 本文由(死性不改)原创编译,转载请保留链接: https://www.wendangku.net/doc/2812756219.html,/technologynews/focus/1943.html

多块网卡的负载平衡设置

多网卡负载均衡 NICExpress软件下载地址: https://www.wendangku.net/doc/2812756219.html,/soft/36156.htm 注册码: 名称:https://www.wendangku.net/doc/2812756219.html, 序列号: 381567 =============================================== 前言:市面上现在天生支持绑定功能的网卡不多,而且多是出身名门的高档服务器网卡,身价不菲,设置过程也比较专业,使用和维护都不简便。难道我等平头百姓,攥着几十元的廉价8139的兄弟们就无缘领略双网卡绑定的快感了吗?非也,今天我就教大家一招,只需一款小小的软件,就可以用普通的8139之类的网卡体验一把双网卡绑定的愉悦,这个软件就叫做“NICExpress”,可能行家们已经捂着嘴乐了,呵呵,笔者的出发点是给菜鸟兄弟们排难解惑,穷办法自娱自乐,说得过火的地方,大家不要见笑,DIY的乐趣就在于此啊。 朋友或许会问了,为什么要用双网卡呢?用双网卡有什么好处?所谓双网卡,就是通过软件将双网卡绑定为一个IP地址,这个技术对于许多朋友来说并不陌生,许多高档服务器网卡(例如intel8255x系列、3COM 服务器网卡等)都具有多网卡绑定功能,可以通过软硬件设置将两块或者多块网卡绑定在同一个IP地址上,使用起来就好象在使用一块网卡。 广告:d_text 多网卡绑定的优点不少,首先,可以增大带宽,假如一个网卡的带宽是100M,理论上两块网卡就是200M,三块就是300M,当然实际上的效果是不会是这样简单的增加的,不过经实际测试使用多个网卡对于增加带宽,保持带宽的稳定性肯定是有裨益的,如果交换机等相关条件不错的话,这个效果还是很能令人满意;其次,可以形成网卡冗余阵列、分担负载,双网卡被绑定成“一块网卡”之后,同步一起工作,对服务器的访问流量被均衡分担到两块网卡上,这样每块网卡的负载压力就小多了,抗并发访问的能力提高,保证了服务器访问的稳定和畅快,当其中一块发生故障的时候,另一块立刻接管全部负载,过程是无缝的,服务不会中断,直到维修人员到来。 OK,现在就手把手的教大家如何用50元来打造出双网卡的效果! 先下载软件(点击这里下载NIC Express Enterprise),这是最新版本4.0,只有2.15M,软件的兼容性已经做得很好,支持win98/Me/2000/XP/2003。基本上支持目前市场上常见的各种网卡,百兆和千兆网卡都可以用来绑定,但是千万注意,最好用于绑定的网卡是完全相同的,至少也是基于同一芯片的,这样多块网卡才能合作得比较好。切记不要把10M网卡和100M网卡绑定在一起,那样根本起不到提升作用。 下载完软件,先不忙安装,咱们还是先准备好硬件。 第一部分:硬件安装 虽然,理论上讲绑定越多网卡在一起,最终效果提升就越明显,但是考虑到复杂程度,这里就以绑定双网卡为例进行说明,如果读者觉得好玩,兴致很高的话,按照下面方法愿意绑定多少就绑定多少个网卡,其实一般同一台服务器,绑定2-3块网卡也就够了,太多了,据说因为链路聚合的先天缺点,会过多占用服务器资源,反过来会影响服务器速度(关于这个我没实验,不过我觉得凡事都离不开物极必反的道理,适度最好)。 我取出“珍藏”的一对市场上随处可见的8139D10M/100M自适应网卡,市场价格25元一个,北京某厂的产品,做工还算精细,总成本50元人民币。

服务器双网卡绑定知识讲解

双网卡绑定实践 Windows平台下常用的双网卡绑定软件有Intel PROSet、NICExpress。本文主要介绍用Intel PROset实现双网卡绑定的方法。 英特尔PROSet 是一个高级的配置实用程序,可用来测试英特尔网络适配器并配置标准和高级功能。通常Intel网卡的驱动包中就包含这个程序,在安装驱动的时候PROSet默认是被安装的。 测试环境: 测试机:R525 G3,Intel双千兆网卡 OS:windows 2003 server 企业版32位 终端:联想笔记本(用于测试服务器双网卡绑定效果) 步骤: 1、打开设备管理器,双击任意一块Intel 82576; 注意R525 G3默认有3块网卡,82574L是管理网口 2、在弹出的配置对话框中,选择分组页面。此时由于系统中的网卡没有进行绑定,因此此

时组下拉列表框是灰色不可选的,单击“新组”; 3、在弹出的“新组向导”对话框中,填写组的名称,下一步; 4、钩选需要绑定的两个网卡,下一步;

5、这里列出了可选择的网卡绑定的模式,常用的是容错和负载平衡。这里我们选择容错,单击下一步; 6、完成向导;

7、此时我们可以看到刚才的分组页面中组的下拉列表中已经有team1; 8、同时弹出的还有team1的属性对话框,单击设置页面,可以看到其中一块网卡状态为“活动”,另一块网卡装状态为“待命”。在此界面中还可进行删除组和修改组的操作,单击“修改组”;

9、在弹出的对话框中,可以设置双网卡的主从关系,如不进行设定,此关系是不固定的。即:当断掉当前活动状态的主网口时,待命的网口将接替主网口的位置,对外提供服务,并成为主网口。当之前断开的网口恢复后,主从关系不会改变,该网口变为待命状态。 10、固定主从关系,设置当前活动的网口为主适配器,待命网口为次适配器;

Linux下配置双网卡聚合

一、背景 CentOS6.6 Ethernet: em1 em2 em3 em4 bond0 192.168.51.134/24 bond1 192.168.52.135、24 GW 192.168.51.1 GW 192.168.52.1 VLAN 51 52 前提:查看8021q模块有没有挂载,如果没有的话就进行手动挂载 # lsmsg |grep 8021q # modprobe 8021q 二、配置: 1.配置em1、em2配置文件并将这两块网卡绑定为bond0 # cd /etc/sysconfig/network-scripts/ # vim ifcfg-em1 DEVICE=em1 TYPE=Ethernet UUID=bcf7fa28-5807-4126-a7e6-d16bb5ddd32b ONBOOT=yes BOOTPROTO=none #HWADDR=18:66:DA:4C:FC:E6 DEFROUTE=yes #IPV4_FAILURE_FATAL=yes #IPV6INIT=no MASTER=bond0 SLAVE=yes USERCTL=yes PS:这里HWA DDR、UUID一行可以注释掉,因为后面重启network服务的时候可能会提示MA C地址重复,当然如果不提示最好 2.配置em2、em3、em4如上配置参数,其中em3、em4的MASTER=bond1 3.复制或创建ifcfg-bond0、ifcfg-bond1,并修改文件内容如下 # cp ifcfg-em1 ifcfg-bond0 # vim ifcfg-bond0 DEVICE=bond0 BOOTPROTO=none ONBOOT=yes TYPE=Ethernet BONDING_OPTS="mode=2 miimon=100" VLAN=yes

DELL服务器引导过程安装说明

DELL服务器系统安装引导 过程详解 针对现场有DELL的服务器坏掉后,需要重新引导的问题。很多同事很头痛,今天就来说说DELL服务器引导过程的具体步奏,一下都是单位内部装机过程的真实图片,现场引导过程中,如有与图片不一致的过程,还请多百度,多思考,有新的技术及时与大家分享,废话不多说了,直接上图。 首先找到DELL服务器自带的引导盘,见下图,准备工作做好。 图1 DELL引导盘 第一步:开机,打开光驱,将引导盘放入,狂按F8,等待数据读取,直到出现图2界面,该步骤是选择引导提语言,而不是选择操作系统的语言,不要误会。

图2 引导过程提示语言的选择 中文大家都懂的,下面的引导过程也就简单多了,所以该步骤非常重要。 第二步:选择好提示语言后,见到图3界面。该过程是配置网络参数的,一般情况下不用修改,点击取消,后提示是否退出向导,选择是,之后进入下一步即可。

图3网络参数配置 第三步:见到图4,选择最下面的“配置RAID和部署操作系统”,即开始整个系统引导过程。 图4 系统引导界面 第四步:首先要开始进入阵列配置,会见到图5界面,选择“首先配置RAID”,点击下一步即可。

图5开始配置阵列 第五步:图6是开始配置阵列的第一步,直接点击下一步即可。 图6 阵列配置第1步 第六步:图7为阵列级别的选择,一般选择“RAID 0”,点击下一步。具体每个级别的不同含义可参照https://www.wendangku.net/doc/2812756219.html,/view/63423.htm自行学习。 图7 阵列配置第2步

第七步:图8是对磁盘数量的选择,如果有多块硬盘,下面会显示2个或2个以上磁盘名称,这时要在全选前面的方块打“√”,即选择所有硬盘,点击下一步。 图8 阵列配置第3步 第八步:图9是对虚拟磁盘进行命名,一般单位出去的电脑名称是“50”,含义可以是50所,也可以50盛同,现场装机可以自定义其他名称,例:qdlh。点击下一步进入图10。

dell服务器双网卡绑定与端口聚合

端口聚合( Port Trunking ) 可将2至8个10/100Base-TX 端口聚合成一条干路,在全双工工作模式下达到的带宽。端口聚合技术能充分利用现有设备实现高速数据传递,也可以通过千兆端口聚合技术实现千兆位链路的聚合,最多可以聚合4Gbps的链路带宽。 Broadcom Gigabit Ethernet Adapter Teaming 任何可用的千兆BRODCO网卡都可以配置为TEAM勺一部分.TEAMING是一种将多块千兆BRODCC网卡绑定作为一个虚拟网卡. 好处就是负载均衡. 通过选择每一个可用的千兆BRODCC网卡并添加它们到负载均衡成员栏来创建TEAM对于用户和应用程序 只看到一个虚的网卡. 负载均衡组中的成员共享绑定的数据流. 在一个基本的成员区域中,任一个千兆BRODCOM卡都可以被指定为主成员负责数据流的控制,而指定为备用成员的网卡只有在所有的主 成员网卡都失败时,才开始接管数据流.一旦任一个主成员网卡恢复,数据马上由该主成员控制. 创建teaming 包含下列几个步骤: * 打开BASP属性窗口 * 创建teams * 添加网卡到teams * 分配一个IP 地址给teamss * 重启机器 BASP是适用于windows2003,windows2000,windowsNT,Redhat Liunx,NetWare 的一个broadcom 的中介型驱动程 序, 需要先安装对应的broadcom 网卡驱动程序.

目前它提供了负载均衡;错误冗余;VLAN高级功能,都通过创建teaming来实现. 注意:一个team可以包含1到8个网卡,每个网卡都可以指定为主成员或备用成员. BASP的负载均衡;错误冗余功能支持与第三方厂商网卡在同一个team中协同工作. BASP FOR Windows 2000 & 20003 & NT提供以下选项: - 支持下列网卡作为故障应急(failover) Alteon AceNic,3COM 10/100 Server adapters;intel 10/1000 server adapters;intel 1000baseSX server adapter; intel 82559 板载网卡 - 智能负载均衡, 交换机不需设置. - 普通链路聚合(GEC/FEC,Open Trunk), 需要在交换机上启用trunking - 链路聚合( 静态配置), 需要交换机支持 - 通过,每个网卡最多支持64个VLANS只支持braodcom或Alteon网卡 BASP FOR RH Linux 提供以下几种team 的模式: - 智能负载均衡 普通链路聚合(GEC/FEC,Open Trunk), 需要在交换机上启用trunking 链路聚合( 静态配置), 需要交换机支持 - VLAN Pachket tagging Smart Load Balancing (SLB) ?

相关文档
相关文档 最新文档