文档库 最新最全的文档下载
当前位置:文档库 › Radware负载均衡解决方案

Radware负载均衡解决方案

Radware负载均衡解决方案
Radware负载均衡解决方案

Radware WSD

服务器负载均衡解决方案

1.1 WSD ―服务器负载均衡

1.1.1Radware 网络应用系统负载均衡的基本工作原理

Radware的WSD通过对于数据包的4-7层信息的检查来进行负载均衡的判断,服务器负载均衡是最普遍的一种4-7层交换的例子,下面我们就以服务器负载均衡的整个流程来介绍Radware WSD的工作原理:

1.1.1.1 会话“session”。

请看下面会话的例子:

为了识别会话,客户机和服务器都使用TCP“埠”。客户机和服务器之间的TCP会话由四个参数定义:客户机IP地址、客户机TCP端口、服务器IP地址和服务器TCP端口。所以,如果IP地址为199.1.1.1的客户机使用TCP端口1234与IP地址为145.145.100.100的服务器(TCP埠80)建立会话,则该会话定义如下:

(clntIP,clntPORT,srvrIP,crvrPORT )= (199.1.1.1,1234,145.145.100.100,80)

1.1.1.2 服务器负载均衡

假设图1中所示的样例,客户机通过访问服务器负载均衡设备WSD的虚拟地址145.1.1.1 进行HTTP应用的访问。再假设选择服务器145.145.100.100响应此客户机,则客户表的记录如下所示:

如果启用此记录,WSD 会执行以下两个任务:

1. 所有从客户机199.1.1.1发送到服务器群145.145.1.1且目标TCP 端口为80的数据包将被发送到服务器145.145.100.100。

2. 所有从服务器145.145.100.100发送到客户机199.1.1.1且源TCP 端口为80的数据包将被改为源地址145.145.1.1发送出去。

即:对于用户199.1.1.1 来说,145.145.1.1 是他要访问的服务器IP 地址,当WSD(145.145.1.1),收到用户请求后,会根据后面2台服务器的“健康状况”和负载均衡算法将用户的请求转发到某一台服务器145.145.100.100

1.1.1.3 健康检查

由于负载均衡设备同应用的关系比较紧密,所以需要对负载均衡的元素进行“健康”检查,如果负载均衡设备不能在应用进行健康检查,就无法做到对应用的高可靠性的保障。

Radware 的高级健康检查模块,可以准确的做到应用层的健康检查。这种新的模块与流量复位向模块紧密相连,可以提前检验所有应用和网络部件的可用性和功能,这些网络部件包括应用服务器、防火墙、cache

服务器和路由器等。

先进的状态监视模块独特的架构使管理员能够在各种网络环境中应用先进的测试程序,包括使用各种预先定义的检查程序和用户定制的检查程序(检查范围可以从2 层到7 层)。

1.1.1.4 负载均衡算法

为了将流量发送到最佳的服务器,负载均衡设备可以对流量应用若干强大的算法。

轮询- 负载均衡设备将每一个新请求发送到服务器集群中的下一个服务器。负载均衡设备当然不会输于传统的循环算法功能。后者不论服务器是否在工作或性能如何,都会向其发送请求。而负载均衡设备只会将请求发送到工作正常的服务器。

加权轮询–由于集群中的不同服务器可能有不同的功能,因此可以为各个服务器分配不同的加权值。对特定任务而言,一个服务器可能比另一服务器更适合执行该任务(比如,内存更多、CPU 更快)。通过这些分配的加权值将可以看出一个服务器相对于集群中其它服务器的处理容量。

最少用户- 负载均衡设备将流量复位向到用户数目最少的服务器。最常用于用户较多的HTTP 或小流量会话。

最小流量–该方法允许WSD 将流量优化到各个服务器。用户将被复位向到用流量规模最小的服务器。该方法最常用于用户较少的FTP 或高流量会话。

1.1.2Radware 网络应用系统负载均衡解决方案优势

Radware的网络应用系统负载均衡解决方案的优势在于:

●Radware的网络应用系统负载均衡解决方案提高了网络应用系统的可

靠性

●Radware的网络应用系统负载均衡解决方案提高了网络应用系统的性

●Radware的网络应用系统负载均衡解决方案提高了网络应用系统的安

全性

1.1.

2.1 Radware的网络应用系统负载均衡解决方案提高了网络应用系统的可

靠性

Radware WSD为了确保系统应用的可靠性,采用以下几种手段:1.健康检查

2.WSD设备的冗余

3.服务器的平滑停机

4.服务器的逐渐开机

健康检查

Radware WSD 可靠的健康状况检查可以保证用户获得最佳的服务。WSD 可以监视服务器在IP、TCP、UDP、应用和内容等所有协议层上的工作状态。如果发现故障,用户即被透明地复位向到正常工作的服务器上。这可以保证用户始终能够获得他们所期望的信息。

Radware WSD 健康检查可以分为5大类:

·IP/TCP 层监视

·应用层监视

·内容监视

·Scripting 工具

·先进的全程监视

1.IP/TCP 层(3 层到4 层)监视

TCP/IP 监视可以提供基本的状态监视,以检验设备或应用是可访问的。IP 检查是通过Ping 和ARP,而TCP 检查是通过向用户定制的TCP 端口发送TCP Syn 请求,并接收到表明此应用正在运行的消息。

2.应用层(7 层)监视

应用层监视对所有预定义的应用和协议提供全面的检查,并检验这些应用和协议是否在正常工作。这些检查所使用的信息是基于先进的状态监视模块所包含的每个协议/应用的错误和状态消息信息。根据这些信息模块能够确定应用的状态。

3.内容监视

与上述的应用监视检查相比,内容状态监视会对应用响应消息进行进一步的分析。在应用监视中,对应用程序是否正常运行的检验是通过检查其响应消息中的错误代码,而在内容监视中是检查实际的内容。内容监视是通过检查返回文本中是否有用户定义的字符串来实现的。这是非常有用的,例如对于一些应用如FTP、HTTP、NNTP 和DNS,管理员现在可以检验服务器是否包含特定的内容。这能够保证用户获得完美的体验。如果检测到无效的内容,则认为整个应用路径被禁用,于是将用户定向到有效的数据源。

4.Scripting 工具

除全面的预定义状态检查外,这种先进的状态监视模块还允许完全定制script,在其中可以定义发送和接收数据包的内容。当包含预定字符串的数据包被返回给状态监视模块时,就认为“通过”了检查,并认为应用运行正常。

5.先进的全程监视

这种先进的状态监视模块提供了一种功能强大的工具,通过它可以在不同网

络部件的状态检查之间创建从属关系。这样,就可以将一组状态检查合并,然后将它们定义为代表全程状态监视的一个逻辑实体。这种先进的状态监视模块能够监视所有网络和服务器资源,例如路由器、防火墙、web 服务器、应用服务器和包含此路径的数据库。一旦在这些资源中检测到故障,先进的状态监视会自动透明地将流量复位向到一个正常运行的路径,从而为用户提供确定的服务。

为了确保服务正常运行,WSD 监控从Web 服务器、中间件服务器到后端数据库服务器的整个路径上工作状态,确保整个数据路径上的服务器都处于正常状态。如果存在一个故障服务器,WSD 则不会将用户分配到这个发生故障路径的服务器,从而保证为用户提供透明的数据完整性保障。

WSD设备的冗余

在消除了服务器的单点故障的同时,Radware WSD 的配置提供设备间的完全容错,以确保网络最大的可用性。两个设备通过网络相互检查各自的工作状态,为其所管理的应用保障完全的网络可用性。它们可工作于“主用-备用”模式或“主用-主用”模式,在“主用-主用”模式下,因为两个设备都处于工作状态,从而最大限度地保护了投资。并且所有的信息都可在设备间进行镜像,从而提供透明的冗余和完全的容错,确保在任何时候用户都可以获得从点击到内容的最佳服务。

服务器的平滑停机

当需要进行服务器升级或系统维护时,WSD 保证稳定的服务器退出服务以避免服务中断。当选定某台服务器要从服务器退出服务后,WSD 将不会将任何新的用户分配到该服务器。但是,它可以要退出服务的服务器上完成对当前用户的服务。从而保证了无中断的优质服务,以及服务器组的简易管理能力。

服务器的逐渐开机

将重新启动的服务器应用到服务中时,避免新服务器因突然出现的流量冲击导致系统故障是非常重要的。所以,在将新服务器引入服务器组时,WSD将逐渐地增加分配到该服务器的流量,直至达到其完全的处理能力。从而不仅保证用户在服务器退出服务时,同时还保证服务器在启动期间以及应用程序开始时,均能获得不间断服务。

1.1.

2.2 Radware的网络应用系统负载均衡解决方案提高了网络应用系统的性

Radware WSD 为了确保系统应用的高性能,采用了以下手段:

1.本地服务器的负载均衡

2.基于URL的负载均衡

3.基于内容的负载均衡

4.本地同全局服务器结合的负载均衡

本地服务器的负载均衡

Radware WSD 通过负载均衡,在多个本地和远程服务器间动态分配负载。这些算法包括循环、最少用户数、最小流量、Native Windows NT 以及定制代理支持。除了这些算法,WSD 还可以为每个服务器分配一个可以配置的性能加权,从而提高服务器组的性能。

Radware WSD 根据IP 地址、应用类型和内容类决定流量分配。这样,管理员就可以为不同类型的应用程序分配不同的服务器资源。应用交换支持不同协议上的各种应用,包括TCP、UDP、IP、Telnet、Rshell、TFTP、流、被动FTP、HTTP、e-mail、DNS、VOIP 等等。Radware 还为运行于动态端口并要求同步的应用设计了特殊支持功能。

基于URL的负载均衡

Radware WSD 完全支持URL 交换,根据URL 和HTTP 信息分配流量。每个URL 都可以复位向到某服务器,或在多个服务器之间进行负载均衡,从而提供优化的Web 交换性能。根据URL 文本中包含的信息,WSD 可以保持客户持续性,从而保证内容的个性化。

基于内容的负载均衡

Radware WSD 支持内容交换,内容交换使管理员可以根据交易的内容来分配服务器资源。例如,CGI 脚本可以位于一个单独的服务器组,当发生对该内容的请求时,会话就被复位向到其中某个服务器。WSD 的内容交换能力可以广泛支持SSL ID 和Session ID,保持客户持续性,保证最佳流量管理和应用内容个性化。

本地同全局服务器结合的负载均衡

Radware WSD除了可以对本地的服务器进行负载均衡,也可以对分布在不同地点的服务器进行负载均衡,一旦选定了最佳可用站点,用户就被透明地使用三种方法之一进行复位向:HTTP复位向、RTSP复位向、Radware 专利的Triangulation? 方法复位向与DNS复位向。用户还可以选择这些方法的组合用于多阶段流量分配。复位向选项可以保证用户从最佳站点透明、稳定地获得服务。

通过提供多级冗余,WSD在服务器、WSD设备和站点之间三个层次提供冗余和容错。可以在不同站点上安装许多WSD 设备,从而提供完全的站点冗余。如果整个站点发生故障,则备用站点将自动提供服务,确保整个服务可用。这样用户总能获得优质服务,您也可以高枕无忧了。

WSD 系列产品提供完整的集成解决方案,可以在一个设备中提供全局负载均衡的所有需要。不用两个单独的设备,WSD 在一个设备中就可以提供经济的高性能的解决方案。每个设备都可以从本地解决方案升级为全局解决方案。

1.1.

2.3 Radware的网络应用系统负载均衡解决方案提高了网络应用系统的安

全性

Radware WSD为了确保系统应用的安全性,在负载均衡设备上可以集成安全防护的功能模块,来防御针对应用的攻击。

面对日益严峻的网络安全形势,Radware借助其在内容交换领域的技术优势,实现了基于高速交换机的入侵防范解决方案。WSD的SynApps应用安全模块能够实时侦测和阻止1400多种的黑客恶意攻击和常见的恶性病毒,确保网络资源的安全,并支持用户自定义和实时更新的能力。

1.1.3WSD产品硬件规范

针对不同类型的用户,WSD提供不同的硬件平台。详见下表:

全局负载均衡解决方案

全局负载均衡解决方案 1 需求分析 无论用户的数据中心内部采用多么完善的冗余机制、安全防范工具以及先进的负载均衡技术,单个数据中心的运行方式仍然不能保证关键业务可以7*24不间断运行。 而为了满足处于全球范围内不同地点的用户在访问应用时可以具备相同的快速访问感受,单一的数据中心却完法实现。 基于以上两个最主要的原因,用户通过在不同物理位置构建多个数据中心的方式已经成为用户的必然选择。然而,在构建了多个数据中心后,如何通过有效手段实现多个数据中心间的协调工作,引导用户访问最优的站点,或者当某个站点出现灾难性故障后使用户仍然可以访问其他站点上的关键业务等问题成为用户最关注的问题。 2 Radware 全局负载均衡解决方案 Radware 的全局负载均衡解决方案能够帮助客户通过将相同服务内容布署在处于不同物理地点的多个数据中心中得到更高的可用性、性能、以及更加经济和无懈可击的安全性,以便在全球范围内的客户获得更快的响应时间。 Radware的全局负载均衡解决方案支持Radware 下一代APSolute OS 软件体系结构的全部功能,彻底解决了网络可用性、性能和安全问题,使得应用在多个数据中心中获得更高的灵敏并具有自适应性。配合Radware 的高速度、高容量ASIC芯片+NP处理器的专用硬件应用交换设备,可有效保障网络应用的高可用性、提升网络性能,加强安全性,全面提升IT服务器等网络基础设施的升值潜力。 结合Radware多年来在智能应用流量管理领域的经验,以及对用户实际需求的分析,我们认为负载均衡器应具备如下功能:

?能够通过唯一的IP地址或域名的方式作为所有提供相同服务的数据中心的逻辑入口点。 ?全局负载均衡交换机具有灵活的流量分配算法与机制,以确保用户总能访问可以为其提供最优服务的数据中心的内容。 ?通过部署高性能的负载均衡产品,能够及时发现各数据中心或数据中心内部的服务器的健康状况,当某个数据中心出现故障时,保证把后续用户的访问导向到正常运行的数据中心上。 ?针对基于会话的业务,可以提供多种会话保持机制,确保用户在处理业务时的连续性。避免将用户的相同会话的业务请求,分配到不同的数据中心而造成访问失败。 ?应具备安全过虑及防DOS/DDOS的功能,为服务器提供多一层安全保障 ?具有很好的升级与可扩展性,能够适应特定的和不断变化的业务需求。 2.1 方案拓扑图 2.2 AppDirector-Global实现全局及本地负载均衡 在全局及本地负载均衡方面,AppDirector-Global主要在网络中实现以下功能: 2.2.1 全局负载均衡策略 Radware支持多种全局负载均衡策略,能够通过唯一的IP地址或域名的方式作为所有提供相同服务的数据中心的逻辑入口点。根据用户的实际情况,可以选择其中以下的一种,也可以组合同时使用。

深信服负载均衡AD彩页解决方案

深信服应用交付AD 深信服,作为中国最大最有竞争力的前沿网络设备供应商,为3万多家客户提供了稳定可靠的访问,每秒钟经过深信服AD处理的业务交易量高达数千万笔,在中国入选世界500强的企业中,85%以上企业都是深信服的客户。 中国第一品牌 全球知名分析机构Frost & Sullivan发布的《2013年中国应用交付产品(ADC)市场分析报告》显示:深信服应用交付AD在2013年依然保持强劲增长,在中国市场占比中,超越Radware,升至第二,与F5再次缩小距离,并继续保持国产厂商第一的领导地位。 ④报告数据显示,Sangfor(深信服)2013年在中国地区应用交付市场 的份额达到14.1%,排名升至第二位。 ④自2009年推出到市场上以来,深信服AD产品由第九名一跃进入三 甲,在国产厂商中名列前茅。AD产品广泛应用于国家部委单位的核心 系统与电信运营商的生产网。 ④优异的市场表现,也促使深信服成为唯一入选Gartner应用交付魔力 象限的国产厂商,分析师对深信服产品的安全性评价尤为突出。 面向未来的应用交付产品 随着大数据时代的来临,即便是当前强劲的10Gbps性能设备在面对数十G业务量的并发处理时,也难免也会捉襟见肘。顺应网络发展的趋势,深信服AD系列产品采取基于原生64位系统的软硬架构设计,在确保高性能处理能力的同时,提供电信级的设备可靠性。 深信服AD可帮助用户有效提升 ?应用系统的处理性能与高可用性 ?多条ISP出口线路的访问通畅、均衡利用 ?分布式数据中心的全局调度、业务永续 ?业务应用的安全发布与高效访问 ④兼顾高性能与高稳定性的架构设计,原生64位内核OS,数据面与控制面相分离,确保软件系统的稳定高效。 ④非对称多处理架构发挥出多核硬件平台的极致性能,实现高达60Gbps的单机性能处理性能。 ④提供100Gbps 以上业务量的性能扩容方案,以满足运营商和金融行业对于扩展性与高可用性的追求。

负载均衡解决方案V1

负载均衡解决方案 公司:XX 日期:XX年XX月XX日

目录 1. 负载均衡概述 (3) 2. 项目现状 (3) 3. 项目需求分析 (4) 4. 项目解决方案 (4) 5. 负载均衡结构介绍 (7) 5.1. 负载均衡 (7) 5.2. 负载均衡实现设备[2] (8) 5.3. 负载均衡系统结构 (9) 5.3.1. 两层结构的负载均衡系统 (9) 5.3.2. 三层结构的负载均衡系统 (9) 5.4. 负载均衡实现的方法 (11) 6. Web服务器集群环境配置与测试 (11) 6.1. 搭建环境 (11) 6.1.1. 软硬件环境的搭建 (11) 6.1.2. 软件的安装与配置 (11) 6.2. 环境的测试 (13) 6.3. 集群系统负载均衡测试 (13) 6.4. 集群系统负载均衡测试分析 (13) 6.5. 本系统的不足之处 (14)

1.负载均衡概述 为了提高集群系统对用户的快速响应与整体吞吐量,必须采取一定的策略将Web访问均衡地分配到集群中的每一个服务器。基于此思想本文针对传统的单机思想给出了一种多机三层结构的负载均衡系统。实验结果表明了它在负载均衡方面的优越性。 Internet的快速增长,特别是电子商务应用的发展,使Web应用成为目前最重要最广泛的应用,Web服务器动态内容越来越流行。目前,网上信息交换量几乎呈指数增长,需要更高性能的Web服务器提供更多用户的Web服务,因此,Web服务器面临着访问量急剧增加的压力,对其处理能力和响应能力等带来更高的要求,如果Web 服务器无法满足大量Web访问服务,将无法为用户提供稳定、良好的网络应用服务。 由于客观存在的服务器物理内存、CPU 处理速度和操作系统等方面的影响因素,当大量突发的数据到达时,Web服务器无法完全及时处理所有的请求,造成应答滞后、请求丢失等,严重的导致一些数据包因延时而重发,使传输线路和服务器的负担再次增加。传统的方法是提高Web 服务器的CPU 处理速度和增加内存容量等硬件办法但无论如何增加Web 服务器硬件性能,均无法满足日益增加的对用户的访问服务能力。 面对日渐增加的Web 访问服务要求,必须对Web 服务器按一定策略进行负载分配。利用负载均衡[1]的技术,按照一定策略将Web 访问服务分配到几台服务器上,负载处理对用户透明,整体上对外如同一台Web 服务器为用户提供Web服务。 2.项目现状 本案例公司中现有数量较多的服务器群: ?WEB网站服务器 4台

Radware负载均衡测试.

Radware测试负载均衡 目录 -.Web服务器负载均衡 (2) 1.1业务需求 (2) 1.2配置负载均衡 (2) 1.2.1配置real服务器 (2) 1.2.2配置server group (6) 1.2.3配置virtual service (8) 1.2.4配置PIP(源NAT) (10) 1.2.5配置vrrp (12) 1.2.6配置vrrp group组 (12) 1.3测试 (14) 1.3.1web服务器1的配置 (14) 1.3.2web服务器2的配置 (14) 1.3.3负载均衡测试(round robin) (15) 1.3.4关闭一台服务器 (16) 1.3.5关闭所有节点 (16) 二.FTP服务器负载均衡 (17) 2.1业务需求 (17) 2.2新加两台ftp server (18) 2.3测试ftp server的负载均衡 (18) 2.4关闭一台ftp server (20) 2.5开启ftpserver (20) 2.6关闭所有节点ftpserver (20) 以下组网称为双臂组网,是目前使用比较多的组网方法,逻辑上看,它属于路由方式。此种组网方式可以实现完全的主备切换。单臂时,使用一条物理连接;双臂时,使用2条物理链路,分别连通内网服务器和外网防火墙或路由器。| 三、三角传输

对于流媒体类型的应用,会采用三角传输组网,本地三角传输也称路径外回应。它是为提高整体网络性能的一种解决方案。目前有MTV项目使用此组网方法。在此暂不做详细介绍。 -.Web服务器负载均衡 1.1业务需求 服务器:10.163.66.11/10.163.66.12port:80 对外提供服务IP:10.163.65.20 源NAT地址:10.163.65.5(主),10.163.65.6(备) 1.2配置负载均衡 最基本的负载均衡配置包括以下几部分:创建Server,创建Group,创建Virtual Servers,最后创建Virtual Service。这几部分配置完成后,就可以实现基本的负载均衡功能了。每步配置中均需要将状态设置为enable才能使用。 1.2.1配置real服务器 服务器(Real Server)是Group下面的元素,隶属于Group。定义服务器的名称,IP地址,以及服务的端口号。服务器的网关通常指向Alteon的地址,而不是防火墙,Alteon是双机时,这个地址是浮动IP。 添加第一台服务器

几种负载均衡策略比较~

PS:Nginx/LVS/HAProxy是目前使用最广泛的三种负载均衡软件,本人都在多个项目中实施过,参考了一些资料,结合自己的一些使用经验,总结一下。 一般对负载均衡的使用是随着网站规模的提升根据不同的阶段来使用不同的技术。具体的应用需求还得具体分析,如果是中小型的Web应用,比如日PV小于1000万,用Nginx就完全可以了;如果机器不少,可以用DNS轮询,LVS所耗费的机器还是比较多的;大型网站或重要的服务,且服务器比较多时,可以考虑用LVS。一种是通过硬件来进行进行,常见的硬件有比较昂贵的F5和Array等商用的负载均衡器,它的优点就是有专业的维护团队来对这些服务进行维护、缺点就是花销太大,所以对于规模较小的网络服务来说暂时还没有需要使用;另外一种就是类似于Nginx/LVS/HAProxy的基于Linux的开源免费的负载均衡软件,这些都是通过软件级别来实现,所以费用非常低廉。 目前关于网站架构一般比较合理流行的架构方案:Web前端采用 Nginx/HAProxy+Keepalived作负载均衡器;后端采用MySQL数据库一主多从和读写分离,采用LVS+Keepalived的架构。当然要根据项目具体需求制定方案。 下面说说各自的特点和适用场合。 一、Nginx Nginx的优点是: 1、工作在网络的7层之上,可以针对http应用做一些分流的策略,比如针对域名、目录结构,它的正则规则比HAProxy更为强大和灵活,这也是它目前广泛流行的主要原因之一,Nginx单凭这点可利用的场合就远多于LVS了。 2、Nginx对网络稳定性的依赖非常小,理论上能ping通就就能进行负载功能,这个也是它的优势之一;相反LVS对网络稳定性依赖比较大,这点本人深有体会; 3、Nginx安装和配置比较简单,测试起来比较方便,它基本能把错误用日志打印出来。LVS的配置、测试就要花比较长的时间了,LVS对网络依赖比较大。 3、可以承担高负载压力且稳定,在硬件不差的情况下一般能支撑几万次的并发量,负载度比LVS相对小些。 4、Nginx可以通过端口检测到服务器内部的故障,比如根据服务器处理网页返回的状态码、超时等等,并且会把返回错误的请求重新提交到另一个节点,不过其中缺点就是不支持url来检测。比如用户正在上传一个文件,而处理该上传的节点刚好在上传过程中出现故障,Nginx会把上传切到另一台服务器重新处理,而LVS就直接断掉了,如果是上传一个很大的文件或者很重要的文件的话,用户可能会因此而不满。 5、Nginx不仅仅是一款优秀的负载均衡器/反向代理软件,它同时也是功能强大的Web应用服务器。LNMP也是近几年非常流行的web架构,在高流量的环境中稳定性也很好。 6、Nginx现在作为Web反向加速缓存越来越成熟了,速度比传统的Squid服务器更快,可以考虑用其作为反向代理加速器。 7、Nginx可作为中层反向代理使用,这一层面Nginx基本上无对手,唯一可以对比

深信服负载均衡AD日常维护手册

深信服负载均衡AD 日常维护手册

文档仅供参考,不当之处,请联系改正。 深信服科技 AD日常维护手册 深信服科技大客户服务部 04 月

■版权声明 本文中出现的任何文字叙述、文档格式、插图、照片、方法、过程等内容,除另有特别注明,版权均属深信服所有,受到有关产权及版权法保护。任何个人、机构未经深信服的书面授权许可,不得以任何方式复制或引用本文的任何片断。

目录 第1章 SANGFOR AD设备的每天例行检查 (5) 1.1例行检查前需准备: (5) 1.2设备硬件状态例行检查项 (5) 1.2.1设备状态灯的检查 (5) 1.2.2接口指示灯的检查 (6) 1.2.3设备CPU运行检查 (6) 1.2.4设备异常状况检查 (7) 1.3日常维护注意事项 (7) 1.4升级客户端的使用 (8) 第2章 SANGFOR AD设备的每周例行检查 (12) 2.1控制台账号安全性检查 (12) 2.2关闭远程维护 (12) 2.3设备配置备份 (12) 第3章常见问题排错 (14) 3.1无法登陆设备控制台 (14) 3.2 AD新建了虚拟服务,但是无法访问? (14) 3.3链路负载,上网时快时慢,DNS有时解析不了域名 (15) 3.4 DNS策略不生效 (16) 3.5 DNS代理不生效 (17) 3.6智能路由不生效 (17) 3.7登陆应用系统,一会儿弹出并提示重新登陆 (17) 技术支持 (18)

第1章SANGFOR AD设备的每天例行检查 1.1 例行检查前需准备: (1)安装了WINDOWS系统的电脑一台 (2)设备与步骤1所描述的电脑在网络上是可连通的 (3)附件中所带的工具包一份 (包括:升级客户端程序) 1.2 设备硬件状态例行检查项 为了保证设备的稳定运行,工作人员需要以天为周期对设备进行检查,例行检查的项目如下: 1.2.1设备状态灯的检查 SANGFOR AD系列硬件设备正常工作时电源灯常亮,设备的状态指示灯(设备面板左上角标示“状态”字样)只在设备启动时因系统加载会长亮(约一分钟),正常工作时熄灭。如果在使用过程中此灯长亮(注意双机热备的备机此灯会以闪烁),且设备无法正常使用请按照如下步骤进行操作: (1)请立即将设备断电关闭,将系统切换到备机; (2)半小时后将设备重启,若重启后红灯仍一直长亮不能熄

RADWARE之链路负载均衡配置解析

RADWARE之链路负载均衡配置解析 网络描述: 网络出口共有3条公网线路接入,一台RADWARE直接连接三个出口ISP做链路负载均衡,来实现对内部服务器访问和内部对外访问流量的多链路负载均衡。 设计方案: 1、RADWARE LINKPROOF设备部署在防火墙外面,直接连接出口ISP 2、防火墙全部修改为私有IP地址,用RADWARE LINKPROOF负责将私有IP地址转换成公网IP地址; 3、防火墙的DMZ区跑路由模式,保证DMZ区服务器的正常访问; 4、RADWARE LINKPROOF利用SmartNAT技术,分别在每链路上配置NAT地址,保证内部服务器的联网。 网络拓扑:

实施过程(关键步骤): 1、配置公网接口地址 G-1 :218.28.63.163/255.255.255.240 联通 G-2 :211.98.192.12/255.255.255.128 铁通 G-3 :222.88.11.82/255.255.255.240 电信 G-4 :3.3.3.2/255.255.255.0 内联接口地址,连接防火墙 2、配置默认路由 现网共有3条ISP链路,要将每条链路的网关进行添加,具体如下: 命令行配置 LP-Master# Lp route add 0.0.0.0 0.0.0.0 218.28.63.161 Lp route add 0.0.0.0 0.0.0.0 211.98.192.11 Lp route add 0.0.0.0 0.0.0.0 222.88.11.81 3、配置内网回指路由 net route table create 192.168.5.0 255.255.255.0 3.3.3.1 -i 14 net route table create 192.168.6.0 255.255.255.0 3.3.3.1 -i 14 net route table create 192.168.7.0 255.255.255.0 3.3.3.1 -i 14 net route table create 192.168.8.0 255.255.255.0 3.3.3.1 -i 14 net route table create 192.168.9.0 255.255.255.0 3.3.3.1 -i 14 4、配置地址转换 地址转换主要包括内部用户的联网和服务器被访问两部分,这两部分在负载均衡上面分别采用Dynamic NAT和Static PAT这两种NAT来实现,把内部的IP地址和服务器的IP地址分别对应每条ISP都转换成相应的公网IP地址。

数据库负载均衡解决方案

双节点数据库负载均衡解决方案 问题的提出? 在SQL Server数据库平台上,企业的数据库系统存在的形式主要有单机模式和集群模式(为了保证数据库的可用性或实现备份)如:失败转移集群(MSCS)、镜像(Mirror)、第三方的高可用(HA)集群或备份软件等。伴随着企业的发展,企业的数据量和访问量也会迅猛增加,此时数据库就会面临很大的负载和压力,意味着数据库会成为整个信息系统的瓶颈。这些“集群”技术能解决这类问题吗?SQL Server数据库上传统的集群技术 Microsoft Cluster Server(MSCS) 相对于单点来说Microsoft Cluster Server(MSCS)是一个可以提升可用性的技术,属于高可用集群,Microsoft称之为失败转移集群。 MSCS 从硬件连接上看,很像Oracle的RAC,两个节点,通过网络连接,共享磁盘;事实上SQL Server 数据库只运行在一个节点上,当出现故障时,另一个节点只是作为这个节点的备份; 因为始终只有一个节点在运行,在性能上也得不到提升,系统也就不具备扩展的能力。当现有的服务器不能满足应用的负载时只能更换更高配置的服务器。 Mirror 镜像是SQL Server 2005中的一个主要特点,目的是为了提高可用性,和MSCS相比,用户实现数据库的高可用更容易了,不需要共享磁盘柜,也不受地域的限制。共设了三个服务器,第一是工作数据库(Principal Datebase),第二个是镜像数据库(Mirror),第三个是监视服务器(Witness Server,在可用性方面有了一些保证,但仍然是单服务器工作;在扩展和性能的提升上依旧没有什么帮助。

深信服智能DNS全局负载均衡解决方案

智能DNS全局负载均衡解决方案 ——深信服AD系列应用交付产品 背景介绍 在数据大集中的趋势下,多数组织机构都建立了统一运维的数据中心。考虑到单 一数据中心在遭遇到不抗拒的因素(如火灾、断电、地震)时,业务系统就很有 可能立即瘫痪,继而造成重大损失,因此很多具有前瞻性的组织机构都在建设多 数据中心以实现容灾。那么如何充分利用多个数据中心的资源才能避免资源浪 费?如何在一个数据出现故障时,将用户引导至正常的数据中心?在多个数据中 心都健康的情况下如何为用户选择最佳的数据中心? 问题分析 随着组织的规模扩大,用户群体和分支机构分布全国乃至全球,这一过程中组织对信息化应用系统的依赖性越来越强。对于企事业单位而言,要实现业务完整、快速的交付,关键在于如何在用户和应用之间构建的高可用性的访问途径。 跨运营商访问延迟-由于运营商之间的互连互通一直存在着瓶颈问题,企业在兴建应用服务器时,若只采用单一运营商的链路来发布业务应用,势必会造成其他运营商的用户接入访问非常缓慢。在互联网链路的稳定性日益重要的今天,通过部署多条运营商链路,有助于保证应用服务的可用性和可靠性。 多数据中心容灾-考虑到单数据中心伴随的业务中断风险,以及用户跨地域、跨运营商访问的速度问题,越来越多组织选择部署同城/异地多数据中心。借助多数据中心之间的冗余和就近接入机制,以保障关键业务系统的快速、持续、稳定的运行。

深信服解决方案 智能DNS全局负载均衡解决方案,旨在通过同步多台深信服AD系列应用交付设备,以唯一域名的方式将多个数据中心对外发布出去,并根据灵活的负载策略为访问用户选择最佳的数据中心入口。 用户就近访问 ④支持静态和动态两种就近性判断方法,保障用户在访问资源时被引导至最合适的数据中心 ④通过对用户到各站点之间的距离、延时、以及当前数据中心的负荷等众多因素进行分析判断 ④内置实时更新的全球IP地址库,进一步提高用户请求就近分配的准确性,避免遭遇跨运营商访问 站点健康检查 ④对所有数据中心发布的虚拟服务进行监控,全面检查虚拟服务在IP、TCP、UDP、应用和内容等所有协议 层上的工作状态 ④实时监控各个数据中心的运行状况,及时发现故障站点,并相应地将后续的用户访问请求都调度到其他的 健康的数据中心 入站流量管理 ④支持轮询、加权轮询、首个可用、哈希、加权最小连接、加权最少流量、动态就近性、静态就近性等多种 负载均衡算法,为用户访问提供灵活的入站链路调度机制 ④一旦某条链路中断仍可通过其它链路提供访问接入,实现数据中心的多条出口链路冗余 方案价值 ④合理地调度来自不同用户的入站访问,提升对外发布应用系统的稳定性和用户访问体验 ④多个数据中心之间形成站点冗余,保障业务的高可用性,并提升各站点的资源利用率 ④充分利用多条运营商链路带来的可靠性保障,提升用户访问的稳定性和持续性

负载均衡解决方案设计设计

一、用户需求 本案例公司中现有数量较多的服务器群: WEB网站服务器 4台 邮件服务器 2台 虚拟主机服务器 10台 应用服务器 2台 数据库 2台(双机+盘阵) 希望通过服务器负载均衡设备实现各服务器群的流量动态负载均衡,并互为冗余备份。并要求新系统应有一定的扩展性,如数据访问量继续增大,可再添加新的服务器加入负载均衡系统。 二、需求分析 我们对用户的需求可分如下几点分析和考虑: 1.新系统能动态分配各服务器之间的访问流量;同时能互为冗余,当其中 一台服务器发生故障时,其余服务器能即时替代工作,保证系统访问的 不中断; 2.新系统应能管理不同应用的带宽,如优先保证某些重要应用的带宽要 求,同时限定某些不必要应用的带宽,合理高效地利用现有资源;

3.新系统应能对高层应用提供安全保证,在路由器和防火墙基础上提供了 更进一步的防线; 4.新系统应具备较强的扩展性。 o容量上:如数据访问量继续增大,可再添加新的服务器加入系统; o应用上:如当数据访问量增大到防火墙成为瓶颈时,防火墙的动态负载均衡方案,又如针对链路提出新要求时关于Internet访问 链路的动态负载均衡方案等。 三、解决方案 梭子鱼安全负载均衡方案总体设计 采用服务器负载均衡设备提供本地的服务器群负载均衡和容错,适用于处在同一个局域网上的服务器群。服务器负载均衡设备带给我们的最主要功能是:

当一台服务器配置到不同的服务器群(Farm)上,就能同时提供多个不同的应用。可以对于每个服务器群设定一个IP地址,或者利用服务器负载均衡设备的多TCP端口配置特性,配置超级服务器群(SuperFarm),统一提供各种应用服务。

Radware+AppDirector配置手册

Radware+AppDirector配置手册 (v 140909)

版本说明

1 地址分配说明 负载均衡设备上的IP 地址分配如下: 说明: ?APPdirector IP:负载均衡设备在单臂部署下的接口IP。 ?Virtual IP Interf ace: 是冗余地址, 作为服务器的网关,主/备用负载均衡设备的 地址相同。 ?Farm IP:代替服务器被外部用户访问的IP 地址。主/备用负载均衡设备的Farm IP 相同。 ?Client NAT IP:为服务器同时对内部用户提供服务所使用的IP 地址转换。 ?Route IP:负载均衡设备上的网关IP(防火墙地址)。 ?Active 为主用负载均衡设备,backup 为备用负载均衡设备。

2 R a dw ar e A p pD ir ec to r设备配置步骤 2.1登陆A pp D i r e c t o r设备 2.2配置A pp D i r e c t o r设备 3 R a dw ar e A p pD ir ec to r设备的登陆 3.1r a d w a r e A pp D i r e c t o r和电脑的连接: 3.2定义r a d w a r e A pp D i r e c t o r C o n s o l e参数:

3.3 初始化,清配置: 给设备加电,在3 秒内按任意键 CPU: RadWa re BOOMER - MPC740/750 Active boot: 1 DRAM si z e:256M Flas h si z e:16M Altera version: 24 BSP version: 6.00 Creation date:Oct 11 2005,16:34:37 Press any key to stop auto-boot... 3 > > ? ? - print this list @- boot (loa d and go) e - print fata l exception w- download via xmode m a - print installed applications list i- set active appl ication u- download to secondary boot via xmode m x - extract from an archi ve >q0(清空原有配置参数,恢复缺省值) >q1(清空原有配置参数,恢复缺省值) Q 是隐含命令,防止用户误删除配置. > q0 Erasing conf igurati on... Erasing Netwo rk Section ... done > q1 Erasing conf igurati on... fl:/ - Volume is OK config file is not foundErasing Netwo rk Section ... done >@(设备重启)

Radius负载均衡配置指导书

Radware Radius负载均衡 配置指导书 Table of Contents目录 第1章AppDirector产品介绍 (3) 1.1 Radware基本概念 (3) 第2章主AD设备配置 (6) 第3章初始化AD设备 (7) 3.1 连接AD设备 (7) 3.2 登录AD设备 (9) 3.3 确认当前设备的版本 (10) 3.4 查看当前设备的License (11) 3.5 初始化AD设备 (11) 第4章WEB配置 (14) 4.1 登录WEB管理界面 (14) 4.2 配置端口IP地址 (15) 4.3 配置路由 (17) 4.4 配置farm (18) 4.5 配置负载均衡算法中的Radius属性 (20)

4.6 配置L4 Policy (22) 4.7 配置server (23) 4.8 配置server NAT (24) 第5章健康检查配置 (26) 5.1 全局打开高级健康检查功能 (26) 5.2 设置Check Table (26) 5.3 设置Bining Table (29) 5.4 修改Farm Table (30) 5.5 查看健康检查结果 (30) 第6章主备AD冗余配置 (31) 6.1 配置冗余方式 (31) 6.2 配置Selective Interface Grouping (31) 6.3 配置Virtual Router (32) 6.4 配置浮动ip (33) 6.5 配置端口Associated IP (34) 第7章启动主备冗余 (35) 7.1 基本配置 (35) 7.2 启动冗余 (36) 7.3 配置会话表镜像 (36) Table of Contents 目录 第1章AppDirector产品介绍 (3) 1.1 Radware基本概念 (3) 第2章主AD设备配置 (6) 第3章初始化AD设备 (7) 第4章WEB配置 (14) 第5章健康检查配置 (26) 第6章主备AD冗余配置 (31) 第7章 3.5启动主备冗余 (35)

链路负载均衡解决方案

Array Networks 链路负载均衡解决方案 -Array APV系列、AppVelocity应用于企业网络优化

目录 1. 多链路接入背景介绍 (3) 1.1 单链路接入单点故障 (3) 1.2 运营商之间互访 (4) 1.3 双链路解决方案的产生以及其衍生的问题 (4) 2. Array 提供最佳的解决方案 (6) 2.1 方案介绍 (6) 2.2 流出(Outbound)流量处理 (7) 2.3 其它重要功能设置: (8) 2.4 流入(Inbound)流量处理 (8) 3. 解决方案功能特点介绍 (10) 3.1. 全面的链路监控能力 (10) 3.2. 全路经健康检查 (10) 3.3. 策略路由 (11) 3.4. APV-LLB的链路负载均衡解决方案具有以下功能和优点: (11) 3.5. 链路优化功能与其他应用性能提高功能 (11) 3.5.1. Http 压缩功能 (11) 3.5.2. Cache 功能 (11) 3.5.3. Connection Multiplexing(连接复用)技术 (12) 3.5.4. Connection Pooling(连接池)技术 (12) 3.5.5. Array SpeedStack?技术 (12) 3.6. 安全防护功能 (13) 3.7. Cluster技术 (13) 3.8. Array APV 配置管理 (14) 3.9. 可扩展性 (14) 3.9.1. 服务器负载均衡与广域网负载均衡 (14) 3.9.2. 扩展的SSL加速适用于电子商务 (14) 4. 链路负载均衡对企业的价值 (14)

深信服负载均衡AD常维护手册

深信服科技AD日常维护手册 深信服科技大客户服务部2015年04月

有特别注明,版权均属深信服所有,受到有关产权及版权法保护。任何个人、机构未经深信服的书面授权许可,不得以任何方式复制或引用本文的任何片断。目录 SANGFOR AD设备的每天例行检查 例行检查前需准备: (1)安装了WINDOWS系统的电脑一台 (2)设备与步骤1所描述的电脑在网络上是可连通的 (3)附件中所带的工具包一份

(包括:升级客户端程序) 设备硬件状态例行检查项 为了保证设备的稳定运行,工作人员需要以天为周期对设备进行检查,例行检查的项目如下: 1.2.1设备状态灯的检查 SANGFOR AD系列硬件设备正常工作时电源灯常亮,设备的状态指示灯(设备面板左上角标示“状态”字样)只在设备启动时因系统加载会长亮(约一分钟),正常工作时熄灭。如果在使用过程中此灯长亮(注意双机热备的备机此灯会以闪烁),且设备无法正常使用请按照如下步骤进行操作: (1)请立即将设备断电关闭,将系统切换到备机; (2)半小时后将设备重启,若重启后红灯仍一直长亮不能熄灭,请速与我司 技术支持取得联系。 1.2.2接口指示灯的检查 正常情况下,网口link灯在感知到电信号的时候会呈绿色(百兆链路,如果是千兆链路,该灯会成橙色)且长亮,网口ACT灯在有数据通过的时候会呈橙色且会不停闪烁,如果link或者ACT灯不闪或者不亮,请按照如下步骤进行操作: (1)检查该网线是否破损 (2)检查网口水晶头是否有破损 (3)检查网卡双工模式是否协商匹配 (4)上述均没有问题,请及时重启设备切换主备,并及时联系深信服技术支 持 1.2.3设备CPU运行检查 通过设备控制台的网关运行状态,检查CPU占用率是否长期居高,注:登陆设备后显示的第一页面就是网关运行状态,如果CPU长期居高,请按照如下步骤进行操作: (1)在线用户数是否超过了设备能够承受的并发参数 (2)设备是否遭受到了DOS攻击?(设备默认关闭防dos攻击,开启后可产 生日志) (3)某个进程是否异常?(需联系深信服技术支持确认) 1.2.4设备异常状况检查 检查设备硬件是否有异常(风扇,硬盘是否有异常声响) 如果设备内部有异常声响,可能是硬盘或风扇的异常工作导致,请立即断开电源停止设备工作,如有备用机,请立即将系统切换到备用机;并及时联系我司客服部门以确认故障并返修设备。

A10服务器负载均衡解决方案解读

1SJ tit works ***** 单位 A10负载均衡解决方案 A10 Networks Inc. 1SJ tit works

目录 1.项目概述 (1) 2.需求分析及讨论 (1) 2.1应用系统所面临的共性问题 (1) 2.2需求分析 (2) 3.A10公司负载均衡解决方案 (3) 3.1网络结构图 (3) 3.2A10负载均衡解决方案 (3) 3.2.1APP Server负载均衡的实现 (4) 3.2.2应用优化的实现 (4) 3.3解决方案说明 (5) 3.4方案的优点 (6) 4.A10 AX的优点及各型号指标总结 (7) 5.A10公司简介 (7) 6.AX介绍 (8) 6.1 A10公司AX简介 (8) AX系列功能 (8)

1. 项目概述 2. 需求分析及讨论 2.1应用系统所面临的共性问题 随着用户量增大及业务的发展,一个应用系统往往会出现各种问题。瓶颈可能出现在服务器、存储、网络设备,带宽等的性能不足,而运行一旦出现故障给业务带来的影响范围是巨大的,服务器可能出现的问题表现为如下几点: ?高可用问题 关健性应用要求7*24稳定运行不被中断,高可用性问题被放在首要位置。 ?利用“不平衡”现象 数据的大集中使得服务器的访问压力日益增大,服务器性能往往会成为一个系统的瓶颈,随着性能问题的产生,单点故障的发生也将比较频繁,为了解决这些问题,传统的方式多为采取更换更好的服务器并且采用双机备份系统提供服务的方式,这样必然存在 一半的资源浪费的情况,而在压力不断上升的情况下,这种动作讲不断的重复,不但服务器的利用率不平衡,而且持续引起投资的浪费。 ?“峰值”问题 服务器的处理多存在“波峰”和“波谷”的变化。而且“波峰”时,业务量大小的变化又不规律,这就使服务器不得不面对“峰值堵塞”问题。原有解决方法为增加服务器或主机数量,提高处理能力。但仍存在性能不平衡问题,且这样做,投资成本大。 ?多米诺”现象 单台服务器的设置,不可避免会出现“单点故障”,需要进行服务器“容错”。为实现容错,往往在主服务器旁安置一台或多台备份服务器。但这样做,平时只有一台服务器工作,其它服务器处于空闲状态,无法完全利用所有服务器的处理资源,当出现“峰值堵塞”时,“多米 诺”效应往往会发生,即所有服务器连续被“堵”至“死”。最终的结果将导致系统的瘫痪。 ?“扩展”不便 随着物理和应用的集中,服务器上所要处理的数据量(traffic )增大,客户交易产生

Radware负载均衡项目配置实战解析之一初识RADWARE

在近期的项目中,接触负载均衡设备RADWARE比较多,可能有很多朋友对这个设备还不是很了解,所以我把具体项目实战中的Radware配置应用与大家做一个分享交流。RADWARE是一家智能应用网络解决方案的全球领先供应商,主要生产应用交付和网络安全产品,总部位于以色列特拉维夫市。 负载均衡(又称为负载分担),英文名称为Load Balance,其意思就是将负载(工作任务)进行平衡、分摊到多个操作单元上进行执行,例如Web服务器、FTP服务器、企业关键应用服务器和其它关键任务服务器等,从而共同完成工作任务。需要说明的是:负载均衡设备不是基础网络设备,而是一种性能优化设备。对于网络应用而言,并不是一开始就需要负载均衡,当网络应用的访问量不断增长,单个处理单元无法满足负载需求时,网络应用流量将要出现瓶颈时,负载均衡才会起到很好的作用。 负载均衡有两方面的含义:首先,大量的并发访问或数据流量分担到多台节点设备上分别处理,减少用户等待响应的时间;其次,单个重负载的运算分担到多台节点设备上做并行处理,每个节点设备处理结束后,将结果汇总,返回给用户,系统处理能力得到大幅度提高。 现代负载均衡技术通常操作于网络的第四层或第七层,这是针对网络应用的负载均衡技术,它完全脱离于交换机、服务器而成为独立的技术设备。 负载均衡的两种解决方案: 软件负载均衡解决方案是指在一台或多台服务器相应的操作系统上安装一个或多个附加软 件来实现负载均衡,它的优点是基于特定环境,配置简单,使用灵活,成本低廉,可以满足一般的负载均衡需求。 软件解决方案缺点也较多,因为每台服务器上安装额外的软件运行会消耗系统不定量的资源,越是功能强大的模块,消耗得越多,所以当连接请求特别大的时候,软件本身会成为服务器工作成败的一个关键。另外软件可扩展性并不是很好,易受到操作系统的限制;由于操作系统本身的Bug,往往会引起安全问题。 硬件负载均衡解决方案是直接在服务器和外部网络间安装负载均衡设备,这种设备我们通常称之为负载均衡器,由专门的设备完成专门的任务,独立于操作系统,整体性能得到大量提高,加上多样化的负载均衡策略,智能化的流量管理,可达到最佳的负载均衡需求。 一般而言,硬件负载均衡在功能、性能上优于软件方式,不过成本昂贵。 Radware负载均衡:Radware的AppDirector(AD)可以有效地均衡IP应用的负载,优化网络性能。AppDirector在Internet和服务器集群(Server Farms)之间具有非常重要的作用,

(完整版)F5服务器负载均衡解决方案要点

F5服务器负载均衡解决方案 目录 一.大量数据处理所面临的问题 (2) 1.目前存在隐患 (3) 2.应用系统问题综述 (3) 1)“峰值”问题 (4) 2)多米诺”现象 (4) 3)“N+1”方式 (4) 4)“扩展”不便 (5) 5)“免疫力”差 (5) 6)“容灾”.................................................................................... 错误!未定义书签。 7)应用与网络脱节 (6) 二.F5解决方案 (6) 2.1 网络结构 (6) 2.2 方案优势 (7) 2.2.1避免“不平衡”现象 (7) 2.2.2解决因“峰值堵塞”带来的性能调整“不平衡” (9) 2.2.3避免“多米诺”现象 (9) 2.2.4更好的提供系统容错,提高系统可靠性 (10) 2.2.5“扩展”灵活 (11) 2.2.6“免疫力”强 (12) 2.2.7“容灾” (13) 2.2.8网络感知应用,应用控制网络 (14) 三.相关技术资料 (17) BIG-IP提供支持99.999%的正常运行 (17) 四.成功案例 (19) F5为中国某税务机关提供高可用性解决方案 (19)

一.大量数据处理所面临的问题 在现今的企业中,不论是否提供关键性任务的服务,都需要一个持续运行不断的高可用性网络计算环境以维持不间断的高品质服务。所谓高可用性的环境,也是信息管理人员所必须考虑的四件事: 1.使数据有一个安全的存储和运作方式,即使在设备故障时仍能保持数据的完整 一致。 2.使服务器系统持续运行,即使发生故障仍然让服务持续下去。 3.使整个计算环境能更好的管理,如何容错、容灾、集群共享。 4.如何使投资有最好的效益,使系统有最佳的扩充能力,有最低的整体拥有成本, 也就是在任何情况之下均能确保数据的完整一致,系统持续运行,使服务不间 断,同时有最好的投资回报率。 高可用性被定义为计算系统的连续运行。根据故障停机的业务影响,应用系统需要不同的可用性水平。要想实现一个应用系统的高可用性,所有组件(包括应用和数据库服务器、存储设备以及端到端网络)都需要提供连续的服务。 企业和机构对网络化应用及Internet 的日益依赖,加上语音和数据的集成,创造了对高可用性应用的增加需求。任何类型的系统故障停机都可能意味着收入、信誉和客户满意的巨大损失。 高度网络可用性的利用,企业实施高可用性网络来: ?防止财务损失 ?防止生产力损失 ?改进用户满意度 ?改进客户满意/信任 ?降低反应性IT支持成本,提高IT生产力 ?部署关键任务应用支持新业务实践的好处 ?典型的业务要求 为了实现高度的网络可用性,需要部署下列组件:

Radware LinkProof多链路负载均衡解决方案技术白皮书

Radware-LinkProof 多链路解决方案 Radware China

目录 1需求分析 (3) 1.1 单一链路导致单点故障和访问迟缓 (3) 1.2 传统解决方案无法完全发挥多链路优势 (4) 2Radware LinkProof(LP)解决方案 (5) 2.1 方案拓扑图 (5) 2.2 链路优选方案 (6) 2.2.1 链路健康检测 (6) 2.2.2 流入(Inbound)流量处理 (7) 2.2.3 流出(Outbound)流量处理 (8) 2.3 独特优势 (9) 2.4 增值功能 (9) 2.4.1 流量(P2P)控制和管理 (9) 2.4.2 应用安全 (10) 2.5 接入方式 (10) 3设备管理 (11) 4总结 (12)

1 需求分析 近年来,Internet 作为一种重要的交流工具在各种规模的商业机构和各个行业中得到了普遍应用。在机构借以执行日常业务活动的各种网络化应用中,目前已包括从供应链管理到销售门户、数据管理、软件开发工具和资源管理等一系列的应用。这些不断增长的网络化应用对企业通讯的效率和可用性也提出了较高要求。 1.1 单一链路导致单点故障和访问迟缓 用户的网络结构通常如下:单一链路实现内部网络和Internet之间的连接。 而在Internet接入的稳定性对于一个用户来说日见重要的今天,一个ISP显然无法保证它提供的Internet链路的持续可用性,从而可能导致用户Internet接入的中断,带来无法预计的损失。 而且由于历史原因,不同ISP的互连互通一直存在着很大的问题,在南方电信建立的应用服务器,如果是南方电信用户访问正常,Ping的延时只有几十甚至十几毫秒,对用户的正常访问几乎不会造成影响;但如果是北方网通的远程用户访问,Ping的延时只有几百甚至上千毫秒,访问应用时则会出现没有响应设置无法访问的问题。如果用户采用单条接入链路,无论是采用电信(或则网通),势必会造成相应的网通(或则电信)用户访问非常慢。 因此,采用多条链路已成为用户实现Internet接入的稳定性的必然选择。

相关文档