文档库 最新最全的文档下载
当前位置:文档库 › EIGRP邻居建立解析

EIGRP邻居建立解析

EIGRP邻居建立解析
EIGRP邻居建立解析

网络拓扑: Router A (S1/0) -------------(S1/0) Router B

在Router A上:(部分命令)

int s1/0

ip address 10.1.1.1 255.255.255.0

no shut

router eigrp 10

net 10.1.1.0 255.255.255.0

在Router B上:

int s1/0

ip address 11.1.1.1 255.255.255.0

no shut

router eigrp 10

net 11.1.1.0 255.255.255.0

这时A上会显示:Neighbor 11.1.1.1 not . common subnet for Serial1/0 B上会显示:Neighbor 10.1.1.1 not . common subnet for Serial1/0

然后在Router A的S1/0上启用Secondary IP :ip address 11.1.1.2 255.255.255.0 secondary

这时A上出现浮动(每隔80s就Down一次然后马上Up):

*Apr 7 22:40:39.239: %DUAL-5-NBRCHANGE: IP-EIGRP(0) 10: Neighbor 11.1.1.1 (Serial1/0) is up: new adjacency

Left(config-if)#

*Apr 7 22:41:58.751: %DUAL-5-NBRCHANGE: IP-EIGRP(0) 10: Neighbor 11.1.1.1 (Serial1/0) is down: retry limit exceeded

Left(config-if)#

*Apr 7 22:42:03.251: %DUAL-5-NBRCHANGE: IP-EIGRP(0) 10: Neighbor 11.1.1.1 (Serial1/0) is up: new adjacency

B上仍显示为:IP-EIGRP(Default-IP-Routing-Table:10): Neighbor 10.1.1.1 not . common subnet for Serial1/0

接下来在B的S1/0上启用Secondary IP :ip address 10.1.1.2 255.255.255.0 secondary

这时B上显示:*Apr 7 22:44:50.719: %DUAL-5-NBRCHANGE: IP-EIGRP(0) 10: Neighbor 10.1.1.1 (Serial1/0) is up: new adjacency

A相应显示为:*Apr 7 22:44:49.071: %DUAL-5-NBRCHANGE: IP-EIGRP(0) 10: Neighbor 11.1.1.1 (Serial1/0) is up: new adjacency

从实验现象和相关资料,进行如下解释:

1.EIGRP通过Hello包完成邻居发现和邻接关系建立,Hello包发送到

224.0.0.10,所有启用EIGRP进程的路由器监听该地址。

2.EIGRP邻居建立是“一厢情愿”的过程:在实验中,Router A上建立Secondary IP后把B放入邻接表(可用show ip eigrp neighbor查看),但是B却没有这样做,理由是不在同一子网,那么由此我们可以推断是A在收到B的Hello包后,经过自己的逻辑判断,认为B是自己的邻居,具体判断过程我认为是这样:

1)首先要明确的是邻接表的内容,应该包括下一跳路由器和直连接口,其中下一跳路由器就是对端路由器对应接口的主IP地址,即Primary IP,在路由选择协议中,数据流都是

通过主地址传送的,EIGRP当然也是如此,这个看似有问题,但实际上与实验现象并不冲突,我们接着往下看。

2)既然通过Hello包可以完成邻接关系建立,并记录在邻接表中,那么我们可以推断hello包中包含发送端的接口信息和主IP地址(且不带子网掩码,这个我们另行验证),因为我没能查到EIGRP Hello包的具体字段,可能是Cisco私有的缘故吧。

3)在实验中,双方都没有配Secondary IP的时候,接口主地址不在同一网段,无法形成邻居,这没问题,关键是A配上与B的Primary IP在同一网段的Secondary IP的时候,A把B当成了自己的邻居,这是何解,不是数据流都通过主地址传输吗?

4)推断邻居建立的过程如下:B通过自己的主地址发送Hello包给A,其中Hello 包记录的是11.1.1.1,A通过自己的主地址10.1.1.1接收后查看这个Hello包,发现源地址是11.1.1.1,然后将该地址与自己主地址的子网掩码进行AND运算,得出网络地址11.1.1.0,接着查看自己的路由表,在没有配Secondary IP以前,A的路由表中直连网段只有10.1.1.0,这样A就认为B并不与自己直连,所以显示Neighbor 11.1.1.1 not . common subnet for Serial1/0,但是在配了Secondary IP 11.1.1.2后,A的直连网段就有11.1.1.0,就会认为B是与自己直连的,并将其放进邻接表,但是B并没有因此将A放进邻接表,因为B在没有配与A在同一网段的Secondary IP 10.1.1.2前,与A一开始的情况是一样的。

5)而A在实验中每隔80s(hold-time)浮动一次(实验得证),down了又up,其原因在于在A把B当作邻居后,发送自己的路由Update作为对B的Hello包的回应,这时期待的就是B的Ack,但是B现在都不把A当邻居,更不可能发Ack确认,所以A在等80s之后超时,认为链路不可用,要重新建立与B的邻居关系,邻居关系Down掉,而这时A期待的数据包就是B的Hello以重新建立邻居,这个B还是满足的,每隔5s就有一个发过来,A收到后加以判断又把B当邻居,并重蹈覆辙,由此形成浮动。

关于Hello中发过来的路由器接口主IP地址是否有子网掩码的信息,我没有查阅到相关内容,只知道由于EIGRP支持CIDR,所以发送的路由更新信息都是有子网掩码的,由此我们进行验证,验证基于我前述的邻居建立的逻辑判断。

还是Router A和Router B

1)A的S1/0设为23.1.1.1 255.255.255.0,B的S1/0设为23.1.1.2

255.255.255.0 并用EIGRP进行通告,这时邻居能形成。

2)然后将A的S1/0改为23.1.1.1 255.255.255.128,B不变,仍为23.1.1.2 255.255.255.0,调整后邻居依然形成

PS:地址变动后会有短时间内的down又Up,还有Graceful Shutdown现象,B上可以看到:*Apr 7 23:58:54.203: %DUAL-5-NBRCHANGE: IP-EIGRP(0) 10: Neighbor 23.1.1.1 (Serial1/0) is down: Interface Goodbye received

*Apr 7 23:58:58.823: %DUAL-5-NBRCHANGE: IP-EIGRP(0) 10: Neighbor 23.1.1.1 (Serial1/0) is up: new adjacency

3)接着将B的地址改为23.1.1.129 255.255.255.0 ,这时A上会显示*Apr 8 00:01:27.555: IP-EIGRP(Default-IP-Routing-Table:10): Neighbor 23.1.1.129 not . common subnet for Serial1/0

由实现现象我们可以推断:

1.如果Hello包中含有子网掩码,是将收到的源IP地址与收到的子网掩码进行AND运算再与自己的直连网段进行比较的话,在步骤2中,A在收到B发的Hello 后就会发现B是在网段23.1.1.0/24,而自己是在23.1.1.0/25,是不形成邻居的,与实际现象不符。

2.再者,若发送的只有IP地址,是与接收端口的Primary IP的子网掩码进行AND 运算,那么B发给A,A将2

3.1.1.129与自己的子网掩码255.255.255.128进行AND运算得到23.1.1.128/25,而自己的直连接口是23.1.1.0/25,不在同一网段,不与B形成邻居,这是符合实验现象的。

最后我们进行以下总结:

1.EIGRP通过端口的Primary IP传输数据流并形成Neighbor ID(代表一个接口)

2.Secondary IP使得一个接口上可以配不同网段地址,并在路由表中通过直连网段体现出来.

3.Router在接收到EIGRP Hello后会用自己的Primary IP的子网掩码与Hello

中的Neighbor ID进行AND运算,得出网络地址后与自己路由表中的直连网段

进行匹配,有则认为对方是邻居,并将其放进邻接表中,没有就会以不在同一子网为由来拒绝形成邻居。

广域网负载均衡原理简单介绍

广域网负载均衡 多链路广域网负载均衡 (1)Inbound多链路负载均衡算法策略:RTT+Topology+RoundRobin 具体描述: 当外部用户访问九州梦网网站时,首先由F5的3DNS对客户端的LDNS进行RTT(Round Trip Time)探测,对比从两条链路返回的探测结果(可以从统计列表中看到),选择一条返回值小的链路IP地址返回给客户端,从而客户端再发起访问请求;当F5的3DNS探测不到客户端的LDNS(由于LDNS安全防护等原因)时,F5的3DNS自动启用Topology算法,来静态匹配客户端的LDNS地理位置,从而根据客户端的来源,返回正确的A记录;当探测不到的LDNS又不在地址列表中时,F5 3DNS自动启用Global Availability 算法作为默认算法,将所有无法计算结果并且不在Topology范围之内的LocalDNS请求,定义到系统的默认线路上。 F5 的3DNS具备二十多种Inbound算法,可以根据需要进行组合。 ①RTT算法运行机制: 通过3DNS的RTT就近性算法会自动运算生成一个ldns就近分布表,通过这个动态的表,每个客户上来都会提供一个最快速的链路进行访问,由于站点有ISP1和ISP2的两条广域网线路。在3DNS上会针对站点服务器(以https://www.wendangku.net/doc/be14153184.html, 为例)解析ISP1和ISP2的两个不同的公网地址。 对应于https://www.wendangku.net/doc/be14153184.html,域名,在3DNS上配置wideip:https://www.wendangku.net/doc/be14153184.html,,对应两个Virtual Server:VS1:202.106.83.177,VS2:219.17.66.100。分别属于ISP1和ISP2两条线路分配的IP地址段。在3DNS内部,同时定义两个DataCenter分别与ISP1和ISP2相对应。 用户的访问流程如下:

实验四 RIP和EIGRP和OSPF的区别

RIP: RIP是最早的路由协议,它一般被应用在小型网络里。由于它在选择两点间的最优路径时只考虑节点间的中继次数,它不考虑网络拥塞状况和连接速率因素,RIP每30秒广播一次自己的路由表,广播时会有极大的数据传输量。然后RIP的收敛时间很长,新的路由信息更新对于较远的路由器,可能要花费几分钟时间。同时RIP还限制中继次数不能超过16跳(经过16台路由器),多出16台路由器后即不可传输。所以在大型网络中,是不可能满足要求的。 总之RIP在路径较多时收敛慢,广播路由信息需占用较多带宽资源 RIP的管理距离为120 OSPF: 为了弥补RIP中的一些缺陷,并能够与RIP网络共存。OSPF在选择最优路径时使用了一种更灵活的算法。OSPF不受跳数限制;支持负载均衡;收敛速度和EIGRP相当;使用AREA对网络进行分层,减少了协议对CPU处理时间和内存的需求;采用SPF算法来计算出到达目标的最短路径。 Cost=10^8/bandwidth,所以对带宽是比较敏感的 OSPF管理距离为110 EIGRP: 增强型内部网关路由协议,它具有快速收敛时间和低网络开销。而且它具有比OSPF更容易配置及需要较少CPU开销的优点。但是他是cisco私有协议,不能与其他厂商路由器共存。 总之EIGRP比RIP具有更快收敛,减小带宽消耗,增大了网络规模(255跳)以及减小了CPU的消耗。同时它还支持非等价负载均衡。 EIGRP对带宽及延时比较敏感 增量路由更新:RIP是将整个路由表都发给对方,而EIGRP是将发生更新的路由发给对方,其采用的是触发更新,如果没有更新是不发送的,这点和RIP不同。 EIFRP管理距离为90,外部管理距离为170 1.距离矢量/链路状态路由协议 RIP v1和v2都是距离矢量型,OSPF是链路状态型,EIGRP是混合型的。 2.有类别/无类别路由协议 支持有类的:RIP v1 无类的RIP v2,OSPF,EIGRP 3.是否支持VLSM、CIDR 不支持的RIP v1 支持的:RIP v2,OSPF,EIGRP 4.是否支持认证技术 不支持的:RIP v1 支持的:RIP v2,OSPF,EIGRP 5.是否定期发送更新 定期:RIP v1和v2 不定期:OSPF,EIGRP 6.采用什么算法来完成网络收敛 RIP v1和v2:Bellman-Ford

ospf邻接关系的建立过程

运行OSPF协议的路由器,如果你想正常运转的话,那么就得和其他的路由器建立完全邻接的关系。因为这种状态下,同一个区域中的所有的路由器的LSDB都是完全同步的、一致的。呵呵、、、其实呢,应该反过来说,当同一个区域中的所有的路由器的LSDB的完全同步、一致的情况下,OSPF路由器才算是达到了这个完全邻接的状态! 有这么几个过程: OSPF 处于down 状态----àInit状态-----à双向(two—way)状态-----à邻接状态--à预启动( exstart )状态------à交换(exchange )状态----à完全( full )邻接状态! 当配置了OSPF的路由器刚刚启动的时候,这个协议还是处于down的状态的,为什么呢?因为还没有其他的路由器和他交换信息啊。所以他接下来要做的就是通过所有的OSPF接口向外发送HELLO分组,并且分组的目标地址是224.0.0.5 (这个地址代表的是哪些路由器呢?我认识吧,他代表的是与发送HELLO分组的路由器直接相连的那些路由器,就是指的那些直连路由器。并且在这里需要说明的是,HELLO分组不会被路由,这个HELLO分组的行程只有一跳。那我们看到的“HELLO分组在整个区域中的多个路由器之间进行扩展”又该如何解释呢?HELLO分组在同一个区域中的多个路由器之间进行扩展,运用的不是路由功能,而是一个路由器发送这个HELLO分组到了直接相连的所有的路由器后,这些路由器就复制一个副本,并且将自己的信息添加进去后,就还是运用目标地址为224.0.0.5来分发这个HELLO分组到与自己直接相连的各个路由器上。就这样一直下去,以此类推!)

OSPF建立邻居的过程

1.R1的一个连接到广播类型网络的接口上激活了OSPF协议,并发送了一个HELLO报文(使用组播地址224.0.0.5)。由于此时R1在该网段中还未发现任何邻居,所以HELLO报文中的Neighbor字段为空。 2.R2收到R1发送的HELLO报文后,为R1创建一个邻居的数据结构。R2发送一个HELLO报文回应R1,并且在报文中的Neighbor字段中填入R1的Router -id,表示已收到R1的HELLO报文,并且将R1的邻居状态机置为Init 3.R1收到R2回应的HELLO报文后,为R2创建一个邻居的数据结构,并将邻居状态机置为Exstart状态。下一步双方开始发送各自的链路状态数据库。 为了提高发送的效率,双方需先了解一下对端数据库中那些LSA是自己所需要的(如果某一条LSA自己已经有了,就不再需要请求了)。方法是先发送DD报文,DD报文中包含了对本地数据库中LSA的摘要描述(每一条摘要可以惟一标识一条LSA,但所占的空间要少得多)。由于OSPF直接用IP报文来封装自己的协议报文,所以在传输的过程中必须考虑到报文传输的可靠性。为了做到这一点,在DD报文的发送过程中需要确定双方的主从关系。作为Master的一方定义一个序列号seq,每发送一个新的DD报文将seq 加一。作为Slave的一方,每次发送DD报文时使用接收到的上一个Master的DD报文中的seq。实际上这种序列号机制是一种隐含的确认方法。如果再加上每个报文都有超时重传,就可以保证这种传输是可靠的。 R1首先发送一个DD报文,宣称自己是Master(MS=1),并规定序列号为x。I=1表示这是第一个DD报文,报文中并不包含LSA的摘要,只是为了协商主从关系。M=1说明这不是最后一个报文。 4.R2在收到R1的DD报文后,将R1的邻居状态机改为Exstart,并且回应了一个DD报文(该报文中同样不包含LSA的摘要信息)。由于RT2的Router ID 较大,所以在报文中R2认为自己是Master,并且重新规定了序列号为y。 5.R1收到报文后,同意了R2为Master,并将R2的邻居状态机改为Exchange。

F5负载均衡基本原理

F5 Application Management Products 服务器负载均衡原理 F5 Networks Inc

1.服务器负载平衡市场需求 (3) 2.负载平衡典型流程 (4) 2..1 通过VIP来截获合适的需要负载平衡的流量 (4) 2.2 服务器的健康监控和检查 (5) 2.3 负载均衡和应用交换功能,通过各种策略导向到合适的服务器 (6)

1.服务器负载平衡市场需求 随着Internet的普及以及电子商务、电子政务的发展,越来越多的应用系统需要面对更高的访问量和数据量。同时,企业对在线系统的依赖也越来越高,大量的关键应用需要系统有足够的在线率及高效率。这些要求使得单一的网络服务设备已经不能满足这些需要,由此需要引入服务器的负载平衡,实现客户端同时访问多台同时工作的服务器,一则避免服务器的单点故障,再则提高在线系统的服务处理能力。从业界环境来说,如下的应用需求更是负载均衡发展的推动力: ?业务系统从Client-Server转向采用Browser-Server 系统结构,关键系统需要高可用性 ?电子商务系统的高可用性和高可靠性需要 ?IT应用系统大集中的需要(税务大集中,证券大集中,银行大集中) ?数据中心降低成本,提高效率 负载均衡技术在现有网络结构之上提供了一种廉价、有效、透明的方法,来扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性。它有两方面的含义:首先,大量的并发访问或数据流量分担到多台节点设备上分别处理,减少用户等待响应的时间;其次,单个重负载的运算分担到多台节点设备上做并行处理,每个节点设备处理结束后,将结果汇总,返回给用户,系统处理能力得到大幅度提高。 BIG/IP利用定义在其上面的虚拟IP地址来为用户的一个或多个应用服务器提供服务。因此,它能够为大量的基于TCP/IP的网络应用提供服务器负载均衡服务。BIG/IP 连续地对目标服务器进行L4到L7合理性检查,当用户通过VIP请求目标服务器服务时,BIG/IP根椐目标服务器之间性能和网络健康情况,选择性能最佳的服务器响应用户的请求。 下图描述了一个负载平衡发生的流程:

OSPF配置步骤

前言: 本文主要介绍了园区网中OSPF规划要点和部署OSPF的主要配置,对于OSPF协议原理和技术细节没有过多的阐述,适用于对于OSPF协议原理有一定了解的渠道工程师和网络维护人员。 保持OSPF数据库的稳定性:Router-id的选择 层次化的网络设计:OSPF区域的规划 非骨干区域内部路由器的路由表项优化:特殊区域的使用 骨干区域路由器的路由表项优化:非骨干区域IP子网规划和路由汇总 OSPF默认路由的引入和选路优化:重分布静态和cost调整 OSPF网络基本安全:阻止发往用户的OSPF报文 非骨干区域内部路由器的路由表项优化:特殊区域的使用 骨干区域路由器的路由表项优化:非骨干区域IP子网规划和路由汇总 OSPF默认路由的引入和选路优化:重分布静态和cost调整 OSPF网络的基本安全:阻止发往用户的OSPF报文 enable conf t router ospf 110 //启用进程号为110的OSPF router-id *.*.*.* // 配置router ID号OSPF中用来识别路由器的 no au //关闭自动汇总

net 12.12.12.0 0.0.0.255 area 0 //把12.12.12.0/24网段宣告进OSPF中,并且激活该网段上的接口。 OSPF博大精深,太多太多配置了都。。 譬如 OSPF的验证,分为区域验证,链路验证,虚链路验证 建立虚链路,建立TUNNEL 口 手工汇总,修改AD值, 修改接口的COST值, OSPF的特殊区域如:STUB ,totally stub, nssa ,TOTALLY NSSA 路由的重分发

OSPF协议配置

OSPF 协议配置 【实验目的】 1.了解和掌握ospf 的原理; 2.熟悉ospf 的配置步骤; 3.懂得如何配置OSPF router ID ,了解DR/BDR 选举过程; 4.掌握hello-interval 的使用; 5.学会使用OSPF 的authentication ; 【实验拓扑】 【实验器材】 如上图,需用到路由器三台,hub/switch 一个,串行线、网线若干,主机三台。 说明:拓扑中网云可用hub 或普通switch 替代,建立multiaccess 网络,以太口连接。 【实验原理】 一、OSPF 1. OSPF 基本原理以及邻居关系建立过程 OSPF 是一种链路状态型路由选择协议。它依靠5种(Hello, DBD, LSR, LSU and LSAck)不同种类的数据包来识别、建立和维护邻居关系。当路由器接收到来自邻居的链路状态信息后,会建立一个链路状态数据库;然后根据该链路状态数据库,采用SPF 算法确定到各目的地的最佳路径;最后将最佳路径放到它的路由表中,生成路由表。 OSPF 会进行周期性的更新以维护网络拓扑状态,在LSA 的生存期到期时进行周期性的更新。除了周期性更新之外,还有触发性更新。即当网络结构发生变化(例如增减路由器、链路状态发生变化等)时,会产生触发性更新,把变化的那一部分通告给整个网络。 192.168.1.0/24 RT A

2.Designated Router (DR) / Backup Designated Router(BDR)选举过程 存在于multiaccess网络,点对点链路和NBMA网络中无此选举过程,此过程发生在Two-Way之后ExStart之前。 选举过程: 选举时,依次比较hello包中的各台router priority和router ID,根据这两个值选出DR 和BDR。选举结束后,只有DR/BDR失效才会引起新的选举过程;如果DR故障,则BDR 替补上去,次高优先级Router被选为BDR。 基本原则如下: 1)有最高优先级值的路由器成为DR,有第二高优先级的路由器成为BDR; 2)优先级为0的路由器不能作为DR或BDR,只能做DRother (非DR); 3)如果一台优先级更高的路由器加到了网络中,原来的DR与BDR保持不变,只有DR 或BDR它们失效时才会改变; 4)当优先级相同时,路由器ID最高和次高的的就成为DR和BDR; 5)当没有配置loopback时,用router上up起来的端口中最高IP地址作为Router ID,否则就用loopback口的IP地址作为它的ID;如果有多个loopback则用loopback端口中最高IP地址作为ID;而且路由器ID 一旦确定就不再更改。 建议使用优先级操纵DR/BDR选举过程 3.update timer与authentication的影响 要让OSPF路由器能相互交换信息,它们必须具有相同的hello间隔和相同的dead-time 间隔。缺省情况下,后者是前者的4倍。 缺省地,路由器认为进入的路由信息总是可靠的、准确的,从而不加甄别就进行处理,这存在一定的危险。因此,为了确保进入的路由信息的可靠性和准确性,我们可以在路由器接口上配置认证密钥来作为同一区域OSPF路由器之间的口令,或对路由信息采用MD5算法附带摘要信息来保证路由信息的可靠性和准确性。建议采用后者,因为前者的密钥是明文发送的。 三、其它预备知识 1、回环接口的配置: Router(config)#int l0 Router(config-if)#ip addr *.*.*.* *.*.*.* 2、telnet:是属于应用层的远程登陆协议,是一个用于远程连接服务的标准协议,用户可以 用它建立起到远程终端的连接,连接到Telnet服务器;用户也可以用它远程连接上路由器进行路由器配置。 【实验内容】 一、在路由器上配置单域的OSPF 1.按照拓扑图1接好线,完成如下基本配置: (1)配置端口IP地址 以RTA路由器的配置为例: RTA(config)#Interface Ethernet 0 RTA(config-if)#ip address 192.168.1.1 255.255.255.0

F5负载均衡原理

F5负载均衡原理 一负载均衡基本概念 1、什么是负载均衡? 负载均衡技术在现有网络结构之上提供了一种廉价、有效、透明的方法,来扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性。它有两方面的含义:首先,大量的并发访问或数据流量分担到多台节点设备上分别处理,减少用户等待响应的时间;其次,单个重负载的运算分担到多台节点设备上做并行处理,每个节点设备处理结束后,将结果汇总,返回给用户,系统处理能力得到大幅度提高。 BIG/IP利用定义在其上面的虚拟IP地址来为用户的一个或多个应用服务器提供服务。因此,它能够为大量的基于TCP/IP的网络应用提供服务器负载均衡服务。BIG/IP 连续地对目标服务器进行L4到L7合理性检查,当用户通过VIP请求目标服务器服务时,BIG/IP根椐目标服务器之间性能和网络健康情况,选择性能最佳的服务器响应用户的请求。 下图描述了一个负载平衡发生的流程: 1. 客户发出服务请求到VIP 2. BIGIP接收到请求,将数据包中目的IP地址改为选中的后台服务器IP地址,然后将数据包发出到后台选定的服务器 3. 后台服务器收到后,将应答包按照其路由发回到BIGIP 4. BIGIP收到应答包后将其中的源地址改回成VIP的地址,发回客户端,由此就完成了一个标准的服务器负载平衡的流程。

2.负载平衡典型流程 ●通过VIP来截获合适的需要负载平衡的流量 ●服务器监控和健康检查,随时了解服务器群的可用性状态 ●负载均衡和应用交换功能,通过各种策略导向到合适的服务器 2.1 通过VIP来截获合适的需要负载平衡的流量 在BIGIP上通过设置VIP来截获需要进行负载平衡的流量,这个VIP地址可以是一个独立的主机地址和端口的组合(例如:202.101.112.115:80)也可以是一个网络地址和端口的组合(例如:202.101.112.0:80),当流量经过BIGIP的时候,凡是命中VIP 的流量都将被截获并按照规则进行负载平衡。 2.2 服务器的健康监控和检查 服务器 (Node) - Ping (ICMP) BIGIP可以定期的通过ICMP包对后台服务器的IP地址进行检测,如果在设定的时间内能收到该地址的ICMP的回应,则认为该服务器能提供服务 服务 (Port) – Connect BIGIP可以定期的通过TCP包对后台服务器的服务端口进行检测,如果在设定的时间内能收到该服务器端口的回应,则认为该服务器能提供服务 扩展内容查证(ECV: Extended Content Verification)—ECV ECV是一种非常复杂的服务检查,主要用于确认应用程序能否对请求返回对应的数据。如果一个应用对该服务检查作出响应并返回对应的数据,则BIG/IP控制器将该服务器标识为工作良好。如果服务器不能返回相应的数据,则将该服务器标识为宕机。宕机一旦修复,BIG/IP就会自动查证应用已能对客户请求作出正确响应并恢复向该服务器传送。该功能使BIG/IP可以将保护延伸到后端应用如Web内容及数据库。BIG/ip的ECV 功能允许您向Web服务器、防火墙、缓存服务器、代理服务器和其它透明设备发送查询,然后检查返回的响应。这将有助于确认您为客户提供的内容正是其所需要的。 扩展应用查证(EAV: Extended Application Verification) EAV是另一种服务检查,用于确认运行在某个服务器上的应用能否对客户请求作出响应。为完成这种检查,BIG/IP控制器使用一个被称作外部服务检查者的客户程序,该程序为BIG/IP提供完全客户化的服务检查功能,但它位于BIG/IP控制器的外部。例如,该外部服务检查者可以查证一个Internet或Intranet上的从后台数据库中取出数据并在HTML网页上显示的应用能否正常工作。EAV是BIG/IP提供的非常独特的功能,它提供管理者将BIG/IP客户化后访问各种各样应用的能力,该功能使BIG/IP在提供标准的可用性查证之外能获得服务器、应用及内容可用性等最重要的反馈。

EIGRP负载均衡过程全解

对于路由方面的负载均衡,我们常说的就是eigrp这个负载均衡问题了。那么在这个方面,可以从两个角度进行分析,包括对等和非对等。那么我们将把这两个内容串联到设置过程中为大家讲解,加深一下印象。1?EIGRP默认支持四条链路的不等代价的负载均衡(所有路由基本上都支持); 2?使用下面命令可支持六条: router EIGRP 10 maximum-paths 6——设置成6条 variance——后跟差异度量值,实现负载均衡?差异值为1时,只有相同度量才会安置到本地路由表中,为2时,任一由EIGRP发现的了解的路由,只有其度量少于继任度量的两倍,将会被安置到本地的路由表中? EIGRP Load Balancing 非等价负载均衡 每个路由协议都支持等值路径的负载均衡.除此之外,IGRP和EIGRP也支持不等值路径的负载均衡,使用variance命令. Variance命令向路由器通告一个n值,n值使用variance命令指定.n值为1-128之间,默认为1?router E有三个路径到网络X ◆E-B-A with a metric of 30 ◆E-C-A with a metric of 20 ◆E-D-A with a metric of 45 Router E选择第二个路径,E-C-A的metric为20,20为三个路径的最小值,如果希望EIGRP选择优先E-B-A路径,配置variance值为乘数2 router eigrp 1

network x.x.x.x variance 2 这样增加了metric到40(2*20=40)?这样EIGRP包括了所有metric小于40的路由,在上面的配置中,路由器使用了两个路径到达网络X,E-C-A 和E-B-A,因为两个路径的metric值都在40以下?因为E-D-A的metric 为45,大于40,所以eigrp不选择此路径到达网络X?而且,路由器D报告到达网络X的metric为25,这个值比可行的metric值20要大?这就意味着即使variance设置为3,E- D-A路径也不会被选择为负载均衡的路径,因为router D不是一个可行的后继者? Traffic Sharing Eigrp不仅支持不等值路径的负载均衡,而且也支持智能负载均衡,例如traffic sharing?有多个路由到达同一目的网络有不同cost的情况下,想要控制在不同路由上的traffic,可以使用traffic sharing命令?使用balanced关键字,路由器按照不同路由的metrics比率成比例的分配流量?这是默认设置。 router eigrp 1 network x.x.x.x variance 2 traffic-share balanced 下面是traffic share计算案例 ◆For path E-C-A: 30/20 = 3/2 = 1

OSPF建立邻接关系的过程

OSPF建立邻接关系的过程 OSPF 建立邻接关系的过程 2008-10-29 23:15:50| 分类:Cisco | 标签:ospf 邻居| 字号大中小订阅首先要了解这个过程中涉及到的几种分组: (1)Hello 分组:这是一台路由器告诉其他路由器自己存在的一种方式。Hello 分组会定期发送,以告诉其他路由器自己还活着。(2)DBD 分组:数据库描述,这是链路状态的一个概况,可以把它看做是链路状态的一个目录,其中包含它知道的所有路由器的 ID ,以及各条链路的序列号(用来判断链路的新旧程度)。(3)LSU 分组:链路状态更新,这是真正的链路状态信息,也就是通往某个目标的详细路径信息。 (4)LSR 分组:用来请求一个链路状态信息。 (5)LSAck 分组:对其他分组进行确认。 还有一个概念就是LSDB (链路状态数据库),它保存所有链路状态信息。 下面我们结合在R1 上执行debug ip ospf events 的输出(该输 出来自互联网),来详细说明建立的步骤: 1.R1的OSPF接口开始向外发送Hello分组,发送的时候使用组播,组播地址是224.0.0.5。这个Hello 分组包含一些重要的信

息:路由器ID、DR/BDR 、区域号、优先级等,以及R1 知道的所有邻居的列表(这时侯为空)。 *Apr 8 00:47:54.059: OSPF: Interface FastEthernet0/0 going Up *Apr 8 00:47:54.059: OSPF: Send hello to 224.0.0.5 area 0 on FastEthernet0/0 from 10.1.1.1 2.R2 收到Hello 分组后,会将R1 加入到自己的邻居表中,邻居表中除了从Hello 分组中得到的信息之外,还会从承载 Hello 分组的IP 数据包中得到源IP 地址(R1 某个接口的IP 地址),以及本路由器收到这个分组的接口。R2会查看R1 发送过来的这个Hello 分组当中的邻居列表字段,发现当中并没有自己的路由器ID,我们称这个状态为init状态,这时候,双方的通信关系还没有建立起来。 3.R2 会发送一个Hello 分组给R1 作为响应(使用单播),其 中的邻居列表中包含R1的ID,R1会将R2加到自己的邻居表中,这个时侯,双方的邻居表都已经有对方的存在了。这时候称为2-way 状态。 *Apr 8 00:47:58.919: OSPF: Rcv hello from 10.1.1.2 area 0 from FastEthernet0/0 10.1.1.2 *Apr 8 00:47:58.923: OSPF: 2 Way Communication to 10.1.1.2 on

负载均衡器部署方式和工作原理

负载均衡器部署方式和工作原理 2011/12/16 小柯信息安全 在现阶段企业网中,只要部署WEB应用防火墙,一般能够遇到负载均衡设备,较常见是f5、redware的负载均衡,在负载均衡方面f5、redware的确做得很不错,但是对于我们安全厂家来说,有时候带来了一些小麻烦。昨日的一次割接中,就遇到了国内厂家华夏创新的负载均衡设备,导致昨日割接失败。 在本篇博客中,主要对负载均衡设备做一个介绍,针对其部署方式和工作原理进行总结。 概述 负载均衡(Load Balance) 由于目前现有网络的各个核心部分随着业务量的提高,访问量和数据流量的快速增长,其处理能力和计算强度也相应地增大,使得单一的服务器设备根本无法承担。在此情况下,如果扔掉现有设备去做大量的硬件升级,这样将造成现有资源的浪费,而且如果再面临下一次业务量的提升时,这又将导致再一次硬件升级的高额成本投入,甚至性能再卓越的设备也不能满足当前业务量增长的需求。 负载均衡实现方式分类 1:软件负载均衡技术 该技术适用于一些中小型网站系统,可以满足一般的均衡负载需求。软件负载均衡技术是在一个或多个交互的网络系统中的多台服务器上安装一个或多个相应的负载均衡软件来实现的一种均衡负载技术。软件可以很方便的安装在服务器上,并且实现一定的均衡负载功能。软件负载均衡技术配置简单、操作也方便,最重要的是成本很低。 2:硬件负载均衡技术 由于硬件负载均衡技术需要额外的增加负载均衡器,成本比较高,所以适用于流量高的大型网站系统。不过在现在较有规模的企业网、政府网站,一般来说都会部署有硬件负载均衡设备(原因1.硬件设备更稳定,2.也是合规性达标的目的)硬件负载均衡技术是在多台服务器间安装相应的负载均衡设备,也就是负载均衡器来完成均衡负载技术,与软件负载均衡技术相比,能达到更好的负载均衡效果。 3:本地负载均衡技术

Eigrp协议总结

Eigrp 的总结: 一、特点: 1.高级距离失量; 2.组播和单播的更新方式; 3.支持多种网络层协议 4.100%无环路无类路由; 5.快速收剑; 6.增量更新; 7.灵活的网络设计; 8.支持VLSM和不连续子网; 9.支持等价负载均衡和非等价负载均衡; 10.在W AN和LAN链路的配置简单; 11.支持在任何点可以手动汇总; 12.丰富的度量。 二、关键技术 1第一个关键技术: ---------------多协议模块: Eigrp 是个不可靠的协议。因为是封装在IP网络层。怎样保证可靠传输? A:用序列号(sequence) B:用确认号(acknowledge) 2第二个关键技术: ------------RTP 协议保证可靠传输: RTP定义了eigrp的五种结构: Hello包: Update包:是可靠的包,正常情况下,使用组播地址:224.0.0.10.发送后必须收到一个单播的回复。也就是确认单播发送的。组播发出后,经过一个“组播流计时器”时间后,仍然没有收到ACK, 则要重传;重传的方式变为单播。经过单播重传记时器RTO还没有收到回复,则一直重传。 重传16次则认为邻居关系不存了) 查询包: 回复包: 确认包: 另外还有两个包:SIA查询包和SIA回复包(stuck in active卡在活动状态) 本节中有一个抓包试验: 如图:

3.第三个关键技术: ---------------邻居的发现与恢复: 邻居的发现过程:-------------三次握手: 利用Holle包,来发现邻居; R1:Hello --------------------------→R2 第一次 <————————hello 第二次 <————————update ACK------------------------→第三次 update----------------------→ holle 时间为5秒,失效时间为15秒;抖动时间:可以忽略不计。 试验:修改holle时间和失效时间: R1上:在接口状态下: Ip hello-interval eigrp 100 10(改为10秒) hello包时间 Ip hold-time eigrp 100 30(改为30秒) 生存时间修改 只是在R1做了改动,试验也没有提示邻居关系down了。可见,hello时间不一至不会影响邻居关系的建立。 4.第四个关键技术: ---------------DUL弥算更新算法: 1).几个名词: FD:可行性距离:到达目的网络的最小度量。 AD:被通告距离:邻居路由器到达的目的网络的最小度量。 可行性后继路由器(feasible succeessor):经过的下一个路由器。成为可行性后继路由器的条件:AD

负载均衡的基础原理说明

大家都知道一台服务器的处理能力,主要受限于服务器自身的可扩展硬件能力。所以,在需要处理大量用户请求的时候,通常都会引入负载均衡器,将多台普通服务器组成一个系统,来完成高并发的请求处理任务。 之前负载均衡只能通过DNS来实现,1996年之后,出现了新的网络负载均衡技术。通过设置虚拟服务地址(IP),将位于同一地域(Region)的多台服务器虚拟成一个高性能、高可用的应用服务池;再根据应用指定的方式,将来自客户端的网络请求分发到

服务器池中。网络负载均衡会检查服务器池中后端服务器的健康状态,自动隔离异常状态的后端服务器,从而解决了单台后端服务器的单点问题,同时提高了应用的整体服务能力。 网络负载均衡主要有硬件与软件两种实现方式,主流负载均衡解决方案中,硬件厂商以F5为代表目前市场占有率超过50%,软件主要为NGINX与LVS。但是,无论硬件或软件实现,都逃不出基于四层交互技术的“转发”或基于七层协议的“代理”这两种方式。四层的转发模式通常性能会更好,但七层的代理模式可以根据更多的信息做到更智能地分发流量。一般大规模应用中,这两种方式会同时存在。 2007年F5提出了ADC(Application delivery controller)的概念为传统的负载均衡器增加了大量的功能,常用的有:SSL卸载、压缩优化和TCP连接优化。NGINX也支持很多ADC的特性,但F5的中高端型号会通过硬件加速卡来实现SSL卸载、压缩优化这一类CPU密集型的操作,从而可以提供更好的性能。 F5推出ADC以后,各种各样的功能有很多,但其实我们最常用的也就几种。这里我也简单的总结了一下,并和LVS、Nginx对比了一下。

OSPF配置过程(3)

OSPF 基本配置指导 OSPF:开放最短路径优先协议(Open Shortest Path First,OSPF)是IETF 组织开发的一个基于链路状态的内部网关协议,目前使用的是版本2(RFC2328)。具有适应范围广泛,收敛速度快,无自环、以组播方式发送报文等特点。支持区域划分、路由分级、验证等特性 设备接口 IP地址Router ID Switch A Vlan-int100 10.1.1.1/24 1.1.1.1 Switch A Vlan-int200 10.1.2.1/24 1.1.1.1 Switch B Vlan-int100 10.1.1.2/24 2.2.2.2 Switch B Vlan-int200 10.1.3.1/24 2.2.2.2 Switch C Vlan-int200 10.1.2.2/24 3.3.3.3 Switch C Vlan-int300 10.1.4.1/24 3.3.3.3 Switch C Vlan-int10 192.168.1.1/24 3.3.3.3

Switch C Vlan-int20 192.168.2.1/24 3.3.3.3 Switch D Vlan-int200 10.1.3.2/24 4.4.4.4 Switch D Vlan-int300 10.1.4.2/24 4.4.4.4 Switch D Vlan-int10 192.168.10.1/24 4.4.4.4 Switch D Vlan-int20 192.168.20.1/24 4.4.4.4 图1-3 OSPF 基本配置组网图 应用要求 如上图所示,Switch A、Switch B、Switch C 和Switch D 之间通过OSPF 协议进行数据报文的转发。其中Switch C 和Switch D 下挂直连网络,不需要发送OSPF 协议报文,为了提供网络的安全,禁止其发送协议报文。 配置过程和解释 配置 Switch A # 创建VLAN,配置接口IP 地址,配置过程略 # 配置OSPF system-view [SwitchA] ospf 1 router-id 1.1.1.1 [SwitchA-ospf-1] area 0 [SwitchA-ospf-1-area-0.0.0.0] network 10.1.1.0 0.0.0.255 [SwitchA-ospf-1-area-0.0.0.0] network 10.1.2.0 0.0.0.255 [SwitchA-ospf-1-area-0.0.0.0] quit [SwitchA-ospf-1] quit

eigrp非等价负载均衡

在做实验之前我想先解释一下实现EIGRP负载的一些知识(图)! 一:思考 如果R1想去去往R5的话,那么它面临着有3条路可以走,但是我们可以请注意到,3条路的度量值是不一样的,所以度量值不一样即不能实现负载均衡,于是R1就会选择R3做为它的下一跳,把它放入路由表当中,那我们怎样实现非等价负载呢(即带宽不一致的情况)? 二:术语 AD(Advertise Distance):宣告距离(邻居到某网络的距离) FD (Feasible Distance):可行距离(自己到某网络的距离) 如图所示: 如果R1从R3到R5,那么它的AD=10,FD=20. 注:这个一定得搞清,不然接下来都不知道我讲什么. 三:条件 1.如果我在R1配置R1(config-router)#variance 2的话,那么R2会做为R1的另一条去 住R5的路径,因为2*(FD)>(20+10=30),即从R2到R5的FD小于R3到R5的FD,所以才能实现负载. 2.如果我variance设置为3的话,那么按我刚刚所说的从R4到R5的FD也小于2*(FD), 那它会被加入的负载路径里面去吗?答案肯定不会,因为还有一个条件就是AD必需小于FD,从R4到R5的AD为25,而从R3到R5的FD为20,所以不满足,不能实现负载. 实验:拓扑如下

注:首先说明一下,由于51CTO只允许写8万字,所以步骤一只写了R1的配置,其它一样步骤一:首先先把所以接口信息以及EIGRP全部启用,并且查看信息. R1: Router> Router>en Router#conf t Router(config)#hostname R1 R1(config)#interface f0/0 R1(config-if)#ip address 192.168.12.1 255.255.255.0 R1(config-if)#no sh R1(config-if)#ip address 192.168.13.1 255.255.255.0 R1(config-if)#no sh R1(config-if)#exit R1(config)#router eigrp 1 R1(config-router)#no auto-summary R1(config-router)#network 192.168.12.0 0.0.0.255 R1(config-router)#network 192.168.13.0 0.0.0.255 R1(config-if)#end R1# R1上查看路由表: R1#show ip route

(完整版)ospf邻接建立详细过程(包括五报文七状态)

5、ospf邻接建立过程描述: 首先总结下五报文和七状态 1.Down 路由器还末收到邻居发来的HELLO包 (1.5) 在NBMA还有个attempt(尝试状态):为NBMA网络中的一个正常过滤状 态,即我发送了HELLO等待对方的回应,如果对方不回应则一直滞留在此 状态。 2.init 收到来自邻居的hello包,但是hello中未包含自身的信息。 3.two-way 路由器在收到邻居发来的HEELO包中,看到自己的ROUTER-ID ,在这个态 开始选举DR和BDR 4.exstart 在选举DR和BDR之后,开始选主从Master/Slave 5.exchange 主从协商完成后,进行DBD的同步,链路数据库描述(DBD) 6.loading DBD同步完成后,进行LSA的同步 7.full LSA同步完成之后 根据上图做实验分析: 在R1和R2启用ospf后,会组播向外发送hello报文。

active neighbor字段中为R1的ROUTER-ID 1.1.1.1 和2.2.2.2,说明进入TWO-WAY状态,并且开始选举DR和BDR

选举完成后开始转为extart状态进入exstart state,开始选主从(ROUTER-ID大的为主,作用为了同步DBD的序列号)R1和R2分别向外发DBD报文,都认为自己为主:如图 在DBD中I M MS分别表示第一个包、M表示后面还有几个包MS表示为主 Interface MTU:在不分片的情况下,此接口最大可发出的IP报文长度为1500。 I(Initial):当发送连续多个DD报文时,如果这是第一个DD报文,则置为1,否则置为0。 M(More):当连续发送多个DD报文时,如果这是最后一个DD报文,则置为0。否则置为1,表示后面还有其他的DD报文。 MS(Master/Slave):当两台OSPF路由器交换DD报文时,首先需要确定双方的主(Master)从(Slave)关系,Router ID大的一方会成为Master。当值为1时表示发送方为Master。

EIGRP路由协议知识点集合

EIGRP路由协议 基础知识 知识点 1、Enhanced interior gateway routing protocol(介绍) EIGRP协议是一个内部网关协议,高级距离矢量协议,组播地址224.0.0.10 2、EIGRP的特点 1、eigrp是一个高级的距离矢量协议 2、eigrp具有高速的收敛特性 3、支持路由汇总和路由聚合 4、eigrp支持触发式增量更新 5、eigrp可以支持多种网络层协议,可以开启多个eigrp进程支持不同的3层被动路由协议。 6、eigrp发送报文以组播和单播形式发送组播地址224.0.0.10 7、eigrp支持手工汇总 8、eigrp保证100%无环路 9、eigrp无论在广域网还是在局域网部署eigrp配置都比较简单 10、eigrp支持非等价的负载均衡

3、eigrp的封装以及报文 2.1封装 LLC IP EIGRP FCS Eigrp头部的字段用来描述这个eigrp报文是个什么报文 在hello报文的载荷字段中,有一个ack位,在一般情况下为0,当ack位被置为1的时候,说明此报文为acknowledge报文。 2.2 EIGRP的八种报文 所有的IGP协议中IP包头的TTL字段都为1 1、Hello(ack):当端口大于1.544mbit/s的发送频率为5s一次,小于1.544mbit/s 的我60s一次,连续的3次hello时间都没有收到hello包就判定邻居挂掉了。默认情况下hello报文以组播形式发送。在不支持组播的二层环境中如帧中继环境中,需要手动修改指定单播地址neighbor 1.1.1.1 255.255.255.0 eigrp的报文能够被可靠的发送,所以eigrp定义了可靠的传输机制,内部定义的确认机制,但并不是所有的eigrp报文都需要确认,update,query,和reply需要回复ack,如果没有回复则重传,重传次数为16次。 在hello报文的载荷字段中,有一个ack位,在一般情况下为0,当ack位被置为1的时候,说明此报文为acknowledge报文,当ack位被置1的时候只能以单播形式发送。 2、Update:传路由条目的时候用的报文,更新报文,以组播形式发送,也可以

相关文档