文档库 最新最全的文档下载
当前位置:文档库 › GAD双活存储集群方案

GAD双活存储集群方案

GAD双活存储集群方案
GAD双活存储集群方案

技术方案建议书

目录

第1章需求分析 (3)

第2章总体技术解决方案 (5)

2.1方案拓扑示意图及简要说明 (5)

2.2方案优势简要说明 (6)

2.3VSP G1000的高性能、高可靠性、高扩展能力 (7)

2.3.1 综合说明 (7)

2.3.2 高可靠性 (9)

2.3.3 高性能 (11)

2.3.4 高扩展性 (12)

2.4双活存储集群的技术优势 (13)

2.4.1 VSP G1000的GAD双活存储集群 (13)

2.4.2 GAD双活存储集群的基础-VSM (14)

2.4.3 GAD与其他厂商双活集群技术的对比 (15)

2.5现有核心SAN存储与新购存储的无缝集成 (17)

2.6关键线路连接示意图 (17)

2.7存储虚拟化整合规划 (18)

2.8远程容灾规划 (19)

2.8.1 选用HUR异步复制技术 (19)

2.8.2 HUR异步复制软件的工作原理 (20)

2.8.3 HUR异步复制软件与友商的技术对比说明 (22)

第3章数据迁移解决方案 (23)

3.1数据迁移概述 (23)

3.1.1 迁移目标 (23)

3.1.2 数据迁移相关因素 (23)

3.2数据迁移方法论 (24)

3.2.1 迁移评估设计阶段 (24)

3.2.2 迁移实施阶段 (26)

3.3数据迁移技术的选择 (27)

3.3.1 可选的数据迁移技术 (27)

3.3.2 推荐数据迁移方案 (29)

第1章需求分析

根据现状分析,本次项目的核心建设要点有以下4点:

1)高性能,高扩展性,且可保证数据以及应用安全的存储设备

鉴于XXXX的存储使用情况和未来的业务发展,需要高性能,高扩展性(如存储产品的容量与端口等),高可靠性的企业级高端存储设备作为南方中心整体存储方案的支撑。

2)需要单一存储设备故障不影响业务生产,即双活存储集群技术

XXXX对存储的要求不仅仅是能保证单套存储设备的可靠性,而且要保证在极端情况下,单一存储设备故障时,不会影响关键业务的生产,此外,即使在单套存储设备故障时,另一节点的双活存储的性能也需能够高效支撑业务,因此双活存储需采用相同的配置,以保证在单套存储出现灾难时,另一套存储可以以同样的性能支撑南方中心的业务。

双活存储集群在写数据时是需要两套存储均确认写入成功才会执行下一写操作的,因此必须考虑双活存储集群技术对业务性能的影响。随着两套存储之间距离的增大,数据写入延时越长,因此,建议双活存储集群应在同一个数据中心中以保证业务性能。

3)必须满足长期规划,以实现双活基础上的远程容灾保护

即使已经实现了双活存储集群,但由于两个存储在一个机房楼里,仍然无法避免整个数据中心灾难所带来的影响。因此,还必须在双活的基础上实现远程数据容灾保护的功能,以保证在灾难发生时仍有可用数据快速恢复业务生产。

4)数据迁移

由于南方中心的核心业务系统是从北京中心拆分出来的,需要将北京中心的部分现有数据迁移到南方中心。因此,本项目必须提供一套可行的、完善的、风险系数最低的数据迁移方案,为南方中心业务系统的部署和上线运行打好基础。

根据分析,本项目需要实施数据迁移的IT环境中具有如下特点:

●操作系统多样性:整体环境中主机包括AIX、Windows、Linux、ESX

等各种操作系统,服务器涉及多个品牌;

●数据格式的多样性:数据的存放主要以Oracle数据库为主,有RAC

和主备等多种形式的集群,另外还有主机文件系统,NAS文件系统等;

●数据量大:数十TB规模的数据需要迁移到南方中心新购存储;

●环境限制:距离远、网络带宽有限;

这些特点都表明了数据迁移的复杂性,也对数据迁移的方法提出了挑战。

因此数据迁移方案的选择和设计重点考虑以下要点:

●迁移方案应重点考虑数据初始化,即如何成功、快速的将数据从北

京中心迁移到南方中心;

●迁移方案重点考虑与应用、操作系统、数据库的无关性,尽量通过

更底层的技术,如备份恢复、数据库复制、存储复制等,这样可有

效降低数据迁移的复杂性;

总之,数据迁移应考虑采用一个有效的方法来面向不同数据库、操作系统、服务器的各种应用的迁移,且迁移过程尽量缩短数据初始化的时间,完成南方中心的快速部署和上线运行。

第2章总体技术解决方案

2.1 方案拓扑示意图及简要说明

在明确项目建设目标,经过调研和分析,建议方案设计如下图所示:

上图中紫色字体的部分是本次项目投标提供的SAN网络及存储设备。

方案说明:

●SAN网络层

在SAN网络层面,方案采用两套Brocade 6520交换机作为SAN交换网络,形成双冗余连接,避免因单台交换机故障导致的存储业务中断。

由于南方中心与北京中心之间的远程连接为IP网络,因此建议用户考虑增加FC/IP路由设备,用以实现南方中心与北京中心之间的远程FC SAN路由连接,为基于存储的远程容灾复制提供链路支持。(注:该设备未包含在本方案存储设备供货清单中)

●存储层

方案采用两套HDS最高端的存储设备VSP G1000为南方中心的业务系统提供高性能、高可靠的支撑服务,且采用安全级别最高的“双活存储集群”来实现两

套VSP G1000的设备级冗余故障切换,单套VSP G1000停机不会影响业务的运行,无须任何人为干预,业务系统能够连续不停机的对外服务。

此外,方案中还采用一套HDS中端存储设备HUS130,既可以为网管、监控等业务系统提供支撑服务,也可当作VSP G1000双活存储集群的仲裁节点使用。

●主机层

考虑到系统可靠性,服务器应安装两块独立的HBA卡,分别连接到两台Brocade 6520交换机,形成冗余链路。HDS VSP G1000自带HDLM动态多路径管理软件,可以安装在服务器操作系统中,用于管理路径负载均衡和故障路径自动切换。

2.2 方案优势简要说明

1)高可靠性、高性能、高扩展性:

●VSP G1000高端企业级存储,采用多控制器架构冗余设计,具有极高的

可靠性。

●与此同时,VSP G1000的性能也非常出色,其上一代产品VSP公开发布

的SPC-1测试结果为60万IOPS,而VSP G1000预估IOPS可以达到200

万以上。

●扩展性方面:VSP G1000最大支持2304块磁盘,192个前端口,2TB缓

存,能够充分满足未来的业务发展需求。

2)双活存储集群方案

●由两套VSP G1000存储共同提供业务支撑服务,在任意一套存储出现严

重故障(如断电等)无法工作时,业务系统能够继续运行,无须任何人

工干预操作。在一套存储出现严重灾难时,单套存储仍可保证的业务的

高效运行,实现RTO=0,RPO≈0的高可靠业务连续性方案和数据安全方

案。

●两套存储的配置完全相同,在一套存储故障时,剩余的单套存储仍可以

提供相同的业务处理速度,不会降低服务水平。

3)可实现双活基础上的远程容灾保护

●VSP G1000能够与北京中心实现远程容灾复制,从而实现北京中心与南

方中心之间的数据互备容灾。虽然本项目选择的是利用数据库复制软件

实现两中心间的容灾,但根据以往的项目经验,我们仍然建议使用存储

级容灾复制功能,对Oracle数据库的Archive Log再做一份副本数据,

作为数据库复制软件的补充手段和备用手段,为两中心间的容灾方案提

供更全面的技术支撑。

4)可行的、完善的数据迁移方案

数据迁移是一个极其复杂的系统问题。如何选择一种可行的、完善的数据迁移方案,应重点从以下几个方面考虑:

●容灾复制技术优先

?本项目的建设目的就是为了实现南方中心与北京中心之间的远程容灾,因此建议首选容灾复制技术进行数据迁移。只有这样,数据迁

移到南方中心并启动业务生产之后,才能够继续保持与北京中心之

间的数据容灾复制关系。

?其他数据(文件系统、NAS)等,可以考虑采用NFS、FTP等方式迁移到南方中心。在具备条件的情况下(可实现两中心间的FC/IP路

由通讯),也可以考虑使用存储系统的复制功能完成两中心间的数

据迁移。

●电子传输比介质传送更可靠

?无论哪种复制技术,都具有非常完善的数据传输机制与校验机制,并且迁移到南方中心的数据可以与北京中心直接建立容灾复制关

系。如果带宽条件有限,预估传输时间较长,建议考虑临时增容带

宽,以提高初始化复制的处理速度。

?介质传输,无论是传送磁盘、磁带、甚至存储设备,都存在极高的数据损坏风险,并且时效性很差,需要再次通过数据复制进行数据

更新,过程非常复杂。

2.3 VSP G1000的高性能、高可靠性、高扩展能力

2.3.1 综合说明

权威机构Gartner于2014年11月对业界主流高端存储进行了全方位的综合评测,评测项目众多,评分标准细致且科学。最终排名结果显示:VSP G1000排名第一(并列第一的HP XP7是VSP G1000的OEM型号)。

Gartner官方网站链接如下:

https://www.wendangku.net/doc/ba11497375.html,/technology/reprints.do?id=1-1RO1Z8Z&ct=140310&st=sb 以下图片均为Gartner官方网站的截图:

上图是2014年3月综合排名情况(VSP为VSP G1000的上一代产品),VSP (P9000为VSP的OEM产品)综合排名第一。评测内容包括:管理性、可靠性、

性能、快照复制、扩展性、环保特性、多租户与安全、存储效率。

OEM产品)再次综合排名第一。

2014年11月OLTP典型数据库应用评测,VSP G1000排名第一。

2014年11月OLAP典型数据库应用评测,VSP G1000排名第一。

2.3.2 高可靠性

整体的存储系统平台分为三个层次,主机层、网络层和存储层。

主机层:

在数据中心的生产区和交换区的业务系统中,主机主要进行信息处理和数据库运行,在主机端安装HBA卡用于建立数据访问通道。由于主业务系统是典型的OLTP应用,所以应用对数据访问性能的要求非常高,为了满足这一要求,主机

端需要多块HBA卡,提供多条数据通道,通过安装HDLM数据通道管理软件,可

以提供多通道之间的流量负载均衡,确保高性能的数据访问。另一方面,对于生产系统这样关键的系统,链路的安全性需要得到保证,HDLM同样可以提供数据通道之间的失败切换功能。

网络层:

SAN网络中网络层是非常关键的一个部分,它负责将主机和存储系统连接在一起,并且提供一个高灵活性、高扩展性的环境,以适应业务系统不断发展带来的主机和存储系统的扩展。

在SAN网络设计中,我们采用冗余的网络设计,按照本项目的要求,我们全新配置2台Brocade6520交换机构成冗余FABRIC,为主机和存储系统提供冗余的、可持续发展的连接路径。

存储层:

存储层或者说整个SAN网络存储系统的核心设备是磁盘阵列,在数据中心存储系统中,我们建议配置两台高端存储设备做同步实现“0”数据丢失的保护;建议采用高性能、高可扩展性、功能强大的磁盘阵列系统――VSP G1000通用存储平台。VSP G1000存储平台的出现,完全改变了存储业界的工业标准,致使各个竞争友商的产品又一次处于落后状态。

VSP G1000磁盘存储系统是业界唯一可以保证100%数据可用性的系统,整个系统采用全冗余的交换式结构设计,没有任何单点故障,双独立供电接口与内部N+1电源模块,冗余散热风扇,RAID技术保护方式,全局动态热备份盘包,多独立Cache板设计,支持镜像写缓存技术,所有缓存都是NVS保护的,保证系统高可靠性和实现7×24×365天不停机运行要求。

VSP G1000存储系统也是最易维修的系统。系统的所有部件均支持热插拔和不停机进行更换、扩容和不停机地微码升级。当微码出现问题时可以自动不停机地返回旧版本并可不停机地加入微码的Patch。这种维护特性是经过广大用户证实有效的技术,也是用户选择VSP G1000的原因之一。

2.3.3 高性能

VSP G1000虚拟存储系统是业界性能更高的多控制器企业级存储系统。其内部结构采用高性能、无瓶颈的全交换结构,如上图。前端控制器(CHA)、后端控制器(DKA)、数据缓存cache控制器多部分组成通过系统内部交换系统(核心为HDS专利技术交换芯片)连接组成无阻塞的高速数据交换网络,提供I/O数据交换的多路由和高速的数据交换;前端(CHA)、后端(DKA)、控制缓存组成了点到点的网络结构,用于传输I/O和cache的控制信息,上述结构是目前业界最先进的存储结构设计;同时VSP G1000虚拟存储系统采用全局的数据检索技术和处理机制,保证了数据CACHE中的数据高速检索和CACHE命中效率,获得全世界各权威咨询与评估机构的高度评价,并被公认为是目前业界最高性能和最好的扩展性的存储系统。

下图为权威评测机构SPC(Storage Performance Council)官方网站截图,分别显示了VSP G1000的上一代产品VSP,与Huawei公司18800的SPC-1测试结果。虽然VSP最高60万IOPS,略低于Huawei 18800最高100万IOPS。但在平均响应时间方面,VSP(0.25-0.7毫秒)却较Huawei 18800(1.5-5毫秒)的表现要出色5倍以上。换言之,在相同的I/O压力情况下,Huawei 18800的读写处理时长会是VSP的5倍,也就意味着业务操作的等待时间是VSP的5倍。

VSP:60万IOPS,平均响应时间0.25-0.7毫秒。

SPC官方网站链接

https://www.wendangku.net/doc/ba11497375.html,/benchmark_results_files/SPC-1/hds/A00136_Hitachi-VS

P-Flash/a00136_Hitachi_VSP-HAF_SPC-1_executive-summary_revision-1.pdf

Huawei 18800:100万IOPS,平均响应时间1.5-5毫秒。

SPC官方网站链接:数据来源:

https://www.wendangku.net/doc/ba11497375.html,/benchmark_results_files/SPC-1/Huawei/A00140_Huawei

_OceanStor-18800/a00140_Huawei_OceanStor-18800_SPC-1_executive-summary-r1.pdf 2.3.4 高扩展性

VSP G1000磁盘存储系统采用了全光纤的交换体系结构的设计,保证了系统

的极大的扩充能力,系统内部最大可以扩充到2304块磁盘,内部最大扩充裸容量可以达到8PB,通过虚拟化云的扩展可以达到256PB。系统的数据CACHE最大可以扩充到2000GB。VSP G1000系统的前端通道最大为192个8Gb光纤通道接口。

与此同时,VSP G1000在设备扩展的灵活性方面作出了巨大的努力,允许扩展机柜与控制机柜分开摆放,以解决机房空间紧张的问题,其他最大连接距离可达100米。

此外,VSP G1000还可以通过内置的存储虚拟化功能,将其他符合FC SAN标准的磁盘阵列虚拟化整合进来,形成一个统一的存储资源池,其最大规模可以扩展到256PB。

2.4 双活存储集群的技术优势

2.4.1 VSP G1000的GAD双活存储集群

VSP G1000具有的GAD双活存储集群功能,存储真正成为了一个虚拟设备,不再依赖于具体的物理设备,类似于服务器的虚拟化一样,成为了一个存储资源池;在存储物理设备更新换代的过程中,虚拟的存储设备永远在线,业务永远在线,不会因为一台设备故障造成业务中断。

GAD双活存储集群功能,可以将来自两台VSP G1000的磁盘逻辑卷整合为一个虚拟卷交给服务器,服务器的写操作会被自动镜像写入到两台VSP G1000中,形成数据镜像保护,同时服务器的读操作会被自动分发到两台VSP G1000中的一台执行,从而提高数据的读取速度。通过这种“双写双读”的数据处理方式,VSP G1000能够轻松的依靠内置功能实现“双活存储集群”,如下图所示:

两台VSP G1000上的逻辑卷可以被整合成为统一的虚拟卷标示符,从主机看来如同来自不同路径的同一个逻辑卷,底层的数据双写和双读操作则由GAD软件控制完成。这种技术使得主机的存储资源可以在两节点的VSPG1000上同时运行,在单台VSP G1000出现故障时,主机逻辑卷不需要人工干预进行切换,另外一台VSP G1000上的逻辑卷可以持续提供服务,极大的降低了业务运行的风险,避免了出现故障时需要大量时间人工恢复业务的风险。

本方案中推荐两套VSP G1000采用完全相同的配置,目的是在一套存储出现灾难时,另一套存储可以以同样的性能高效的支撑整个业务中心的运行,使得整体存储性能始终保持在一个相同的水平。

2.4.2 GAD双活存储集群的基础-VSM

VSP G1000的GAD双活存储集群功能,其基础功能是VSP G1000创新的存储虚拟机Virtual Storage Machine(VSM)。

VSP G1000创造性地将虚机的概念引入存储,在一台物理存储内允许用户按照业务和应用的要求定义多个Virtual Storage Machine(VSM), VSM与一台存储类似,具备自己的存储ID,设备序列号和端口WWN,通过VSM的定义,能够有效提高存储资源利用率,并实现最大的架构、业务的灵活性。

VSP G1000通过VSM实现了GAD功能,GAD(Global-Active Device )是利用VSP的虚拟控制器功能来实现VSP G1000的水平扩展和设备双活(业务全部在线)。VSP G1000未来可以实现8台VSP G1000的横向扩展能力。

如上图所示,主机识别LUN是通过控制器ID来识别,VDKC是VSP G1000上虚拟出来的一个虚拟控制器,它可以将多台存储底层的物理控制器虚拟成同一个控制器,这样主机通过虚拟控制器访问后端磁盘资源时始终和一个控制器ID交互,无论后台存储如何变化,主机都不会有感知,从而实现了业务永远在线,双活等特性。

如上图所示,GAD能实现双活数据中心,应用数据在两端同时写入2台存储,另外还需要一个quorum设备做仲裁判断,仲裁盘可以是VSP G1000内部磁盘,也可以是通过VSP G1000虚拟化的外部磁盘。部署后应用层面由Cluster进行高可靠连续性保护,数据层面有GAD进行高可靠连续性保护。

双活数据中心在数据读取时可以分开读取,即本地主机读取本地存储数据,降低延时,提升应用响应速度。

2.4.3 GAD与其他厂商双活集群技术的对比

GAD是目前业界唯一的,通过存储内置功能实现的双活存储集群解决方案。其他厂商则通过增加虚拟化及双活网关的方式实现类似功能。这两种技术方案的主要区别如下(以VSP G1000+GAD 对比 EMC VPLEX+VMAX为例):

下图为EMC VPLEX的部署架构示意图:

每个VPLEX 群集都有一对专用本地IP 子网,它们将控制器连接到管理服务器。其中一个子网上的链路丢失将导致某些成员不能与此子网上的其他成员通信。如下面图:

虽然有网络冗余配置,但从上图可以看出VPLEX集群引入了一对PC服务器。集群间的网络连接复杂,可能引起整个系统的故障。

包含两个或更多引擎的VPLEX群集还需要多搭配一对光纤通道交换机,提供光纤通道连接来支持群集内的控制器间通信。由此可以看出VPLEX的集群连接非常复杂,而且低级的故障点很多。

而利用VSP G1000的先进的GAD技术,在实现双活存储的同时,可以最大化的简化系统架构,系统没有因为要实现双活存储增加任何额外的层和故障点。

2.5 现有核心SAN存储与新购存储的无缝集成

VSP G1000与XXXX现有的USP-V、VSP技术完全兼容,能够实现VSP G1000与USP-V、VSP之间的远程容灾复制,从而实现南方中心与北京中心之间的数据容灾保护。

虽然本项目选定了数据库复制软件进行远程容灾,但我们仍然为南方中心的VSP G1000配置了少量的容灾复制软件许可,通过VSP G1000与USP-V、VSP 之间的容灾复制技术,对数据库的Archive Log进行异地容灾复制,作为数据库复制软件的后备手段,提供更全面的容灾保护。

除了数据库以外,南方中心还会有部分其他数据需要复制,如文件系统等,这些数据无法通过数据库复制软件传输,因此也可以利用存储之间的复制功能进行远程容灾保护。

在未来的下一步规划中,我们建议将南方中心的VSP G1000与北京中心的USP-V、VSP之间的复制功能全部打开,通过底层存储对两中心的所有数据进行容灾复制保护,以保证数据库与文件系统的一致性,进一步提高容灾数据的可用性。

2.6 关键线路连接示意图

下图为GAD双活存储集群的关键线路连接示意图。其中,两台VSP G1000之间的GAD Pair采用光纤直连,两台VSP G1000到HUS130仲裁存储之间也同样采用光纤直连。为了保证系统冗余度,各直连线路均为2条以上。

如果光纤交换机端口充足,也可以考虑使用交换机来连接GAD Pair以及仲裁存储。为了保证系统冗余度,所有链路均应为2条以上,并分别通过不同交换机连接。

此外,VSP G1000、HUS130、HNAS4060各自对主机提供服务的FC接口和10Gb IP接口,均需按照传统模式连接到FC交换机及10Gb以太网交换机。同样的,为了保证系统冗余度,所有链路均应为2路以上,并通过不同交换机连接。

连接架构如下图所示:

2.7 存储虚拟化整合规划

VSP G1000存储特有的存储虚拟化功能可以将基于FC的IBM、EMC、HDS、HP等主流存储公司的光纤存储整合为一个整体,为数据中心向“云”转化提供统一的、可灵活调配的存储资源池。

VSP G1000磁盘存储系统通过存储虚拟化的技术,可以实现将不同厂商的存储系统集合到同一个存储池中。VSP G1000存储平台内部的资源为内部存储资源,与之相连的其它存储设备上的资源是外部资源。通过该功能,可以使用统一的管理平台实现对内部和外部存储资源的统一管理,统一分配,可以按照应用系统的性能要求分配相应的存储资源。从主机的角度看,内部存储资源和外部存储资源功能完全相同,而内部和外部存储资源之间的数据交换可以通过存储系统本身的数据复制和数据迁移软件来完成。VSP G1000 外部连接的存储系统进行虚拟化的独特功能,可为异构存储创建单一的异构存储池。这可以简化存储管理、提高利用率和效率,改善服务水平、简化数据迁移,并可帮助企业满足监管达标

要求。

异构存储虚拟化架构示意图

VSP G1000通过异构存储虚拟化的技术,可以使用统一的管理平台实现对VSP G1000内部和外部存储资源的统一管理,统一分配,可以按照应用系统的性能要求分配相应的存储资源。从主机的角度看,VSP G1000内部存储资源和外部存储资源功能完全相同,而内部和外部存储资源之间的数据交换可以通过存储系统VSP G1000本身的数据复制和数据迁移软件来完成。

同样的,这些被虚拟化整合进来的外部存储均能够使用VSP G1000的独有功能,例如快照、克隆、GAD双活存储集群,3DC闭环容灾复制等等。也就是说,未来如果用户的其他项目采购了其他品牌的存储设备,同样可以利用VSP G1000的先进技术,实现更高级别的数据保护和更高效的数据管理功能。

通过VSP G1000存储分区技术可以对VSP G1000进行逻辑划分,可以多个逻辑虚拟存储系统(VSM)。每个虚拟存储系统都拥有独立的主机通道端口、CACHE、磁盘等资源。在VSP G1000和与之相连的外部存储设备中,通过逻辑分区功能可以使得应用系统的需求和分配给该应用的资源得到合理的调度和匹配,从而保证应用服务质量。

2.8 远程容灾规划

2.8.1 选用HUR异步复制技术

远程容灾技术中主要有两种选择。

?同步数据复制技术

数据实时同步没有数据丢失,但是应用系统能容忍的同步距离有限制(容灾存储越远性能越差),不能抵御区域性的灾难,如大面积的自然灾害,区域性停电等,与本次项目中容灾的规划不符,因此不采用。

?异步数据复制技术

数据实时异步复制,异步复制距离没有限制,能抵御区域性的灾难,对生产存储性能影响小,但也正是由于采用异步数据复制,灾备中心数据有数据丢失(链路足够宽时,RPO可无限接近于0,但不能绝对等于零)。

由于条件有限,本项目的远程容灾必须采用异步数据复制技术。VSP G1000的异步数据复制功能采用的是业界最先进的,基于日志卷的远程容灾复制技术(HUR)。

2.8.2 HUR异步复制软件的工作原理

HUR复制软件采用基于磁盘日志文件的技术,可以保证远程数据的一致性和完整性,同时,极大的降低了存储系统CACHE和通信链路带宽的需求。

HUR的原理如下图所示:

图:HUR远程数据复制软件

磁盘日志卷

HUR远程数据复制软件利用“磁盘日志卷”进行待传数据的实时转发,节省生产系统存储Cache资源

当服务器端发出一个写操作时,写I/O按照写发生的顺序保存在主存储系统的日志卷(JNL)中,远端的存储系统通过发出读日志命令从主存储系统的日志卷(JNL)中读取记录并将其写到本地的日志卷(JNL)中,然后将该记录更新到本地的数据卷中。

上述过程是实时进行的,相比起其他厂家的以30秒钟为周期的异步复制技术,具有更理想的“RPO”指标。同时,无论线路带宽如何变化,HUR远程数据复制软件能够自动的调整传输策略,充分使用线路的带宽资源。

HUR远程数据复制软件也节省了通信链路的带宽需求,在传统的数据远程复制环境下,通信链路的带宽需求不够,则数据会累积在存储系统的CACHE中,当CACHE资源不够时,远程数据复制过程中断。采用基于磁盘日志方式的HUR 远程数据复制软件,可以利用磁盘日志文件缓冲对带宽的瞬时高需求,从而可以避免由于瞬间的高带宽需求造成的远程数据复制的挂起。

统一存储双活方案

NetAp统一存储双活 方案

NetApp统一存储双活方案 1、双活存储架构建设目标 系统灾难是指IT系统发生重要业务数据丢失或者使业务系统停顿过长时间(不可忍受)的事故。可能引发系统灾难的因素包括:?系统软、硬件故障,如:软、硬件缺陷、数据库或其他关键应用发生问题、病毒、通信障碍等; ?机房环境突发性事故,如:电源中断、建筑物倒塌、机房内火灾等; ?人为因素,如:因管理不完善或工作人员操作不当、人为蓄意破坏、暴力事件等; ?自然灾害:如火灾、地震、洪水等突发而且极具破坏性的事故。 其特点是突发性、高破坏强度、大范围。在灾难性事故的影响下,计算中心机房的硬件设备会部分或完全损坏,造成业务的停顿。请参见下图:

当前用户IT系统缺乏有效的灾难防范手段,难以在灾难发生后,不间断或者迅速地恢复运行。灾难恢复就是在IT系统发生系统灾难后,为降低灾难发生后造成的损失,重新组织系统运行,从而保证业务连续性。其目标包括: ●保护数据的完整性、一致性,使业务数据损失最少; ●快速恢复业务系统运行,保持业务的连续性。 灾难恢复的目标一般采用RPO和RTO两个指标衡量。 技术指标RPO、RTO: RPO (Recovery Point Objective): 以数据为出发点,主要指的是业务系统所能容忍的数据丢失量。即在发生灾难,容灾系统接替原生产系统运行时,容灾系统与原生产中心不一致的数据量。RPO是反映恢复数据完整性的指标,在半同步数据复制方式下,RPO等于数据传输时延的时间;在异步数据复制方式下,RPO基本为异步传输数据排队的时间。在实际应用中,同步模式下,RPO一般为0,而在非同步模式下,考虑到数据传输因素,业务数据库与容灾备份数据库的一致性是不相同的,RPO表示业务数据与容灾备份数据的时间差。换句话说,发生灾难后,启动容灾系统完成数据恢复,RPO就是新恢复业务系统的数据损失量。 RTO (Recovery Time Objective):即应用的恢复时间目标。RTO 主要指的是所能容忍的应用停止服务的最长时间,也是是反映业务恢复及时性的指标,表示业务从中断到恢复正常所需的时间。RTO值越小,代表容灾系统的数据恢复能力越强。各种容灾解决方案的RTO有

曙光DS800-G25双活数据中心解决方案介绍

曙光DS800-G25 双活数据中心解决案介绍 曙光信息产业股份有限公司

1解决案概述 在信息社会里,数据的重要性已经毋容置疑,作为数据载体的存储阵列,其可靠性更是备受关注。尤其在一些关键应用中,不仅需要单台存储阵列自身保持高可靠性,往往还需要二台存储阵列组成高可靠的系统。一旦其中一台存储阵列发生故障,另一台可以无缝接管业务。这种两台存储都处于运行状态,互为冗余,可相互接管的应用模式一般称之为双活存储。 由于技术上的限制,传统的双活存储案无法由存储阵列自身直接实现,更多的是通过在服务器上增加卷镜像软件,或者通过增加额外的存储虚拟化引擎实现。通过服务器上的卷镜像软件实现的双活存储,实施复杂,对应用业务影响大,而且软件购买成本较高。通过存储虚拟化引擎实现的双活存储,虽然实施难度有一定降低,但存储虚拟化引擎自身会成为性能、可靠性的瓶颈,而且存在兼容性的限制,初次购买和维护成本也不低。 曙光DS800-G25双活数据中心案采用创新技术,可以不需要引入任第三软硬件,直接通过两台DS800-G25存储阵列实现两台存储的双活工作,互为冗余。当其中一台存储发生故障时,可由另一台存储实时接管业务,实现RPO、RTO为0。这是一种简单、高效的新型双活存储技术。

2产品解决案 曙光DS800-G25双活数据中心案由两台存储阵列组成,分别对应存储引擎A、引擎B。存储引擎A 和B上的卷可配置为双活镜像对,中间通过万兆以太网链路进行高速数据同步,数据完全一致。由于采用虚拟卷技术,双活镜像对中的两个卷对外形成一个虚拟卷。对服务器而言,双活镜像对就是可以通过多条路径访问的同一个数据卷,服务器可以同时对双活镜像对中两个卷进行读写访问。组成双活镜像系统的两台存储互为冗余,当其中一台存储阵列发生故障时,可由另一台存储阵列直接接管业务。服务器访问双活存储系统可根据实际需要,选用FC、iSCSI式,服务器访问存储的SAN网络与数据同步的万兆网络相互独立,互不干扰。 组网说明: 1)服务器部署为双机或集群模式,保证服务器层的高可用, 2)存储与服务器之间的连接可以采用FC、iSCSI链路,建议部署交换机进行组网; 3)存储之间的镜像通道采用10GbE链路,每个控制器上配置10GbE IO接口卡,采用光纤交叉直连的式,共需要4根直连光纤; 4)组网拓扑

NetApp统一存储双活方案

NetAp统一存储双活 方案 NetApp统一存储双活方案 1、双活存储架构建设目标 系统灾难是指IT系统发生重要业务数据丢失或者使业务系统停顿过长时间(不可忍受)的事故。可能引发系统灾难的因素包括:?系统软、硬件故障,如:软、硬件缺陷、数据库或其他关键应用发生问题、病毒、通信障碍等; ?机房环境突发性事故,如:电源中断、建筑物倒塌、机房内火灾等; ?人为因素,如:因管理不完善或工作人员操作不当、人为蓄意破坏、暴力事件等; ?自然灾害:如火灾、地震、洪水等突发而且极具破坏性的事故。 其特点是突发性、高破坏强度、大范围。在灾难性事故的影响下,计算中心机房的硬件设备会部分或完全损坏,造成业务的停顿。请参见下图:

当前用户IT系统缺乏有效的灾难防范手段,难以在灾难发生后,不间断或者迅速地恢复运行。灾难恢复就是在IT系统发生系统灾难后,为降低灾难发生后造成的损失,重新组织系统运行,从而保证业务连续性。其目标包括: ●保护数据的完整性、一致性,使业务数据损失最少; ●快速恢复业务系统运行,保持业务的连续性。 灾难恢复的目标一般采用RPO和RTO两个指标衡量。 技术指标RPO、RTO: RPO (Recovery Point Objective): 以数据为出发点,主要指的是业务系统所能容忍的数据丢失量。即在发生灾难,容灾系统接替原生产系统运行时,容灾系统与原生产中心不一致的数据量。RPO是反映恢复数据完整性的指标,在半同步数据复制方式下,RPO等于数据传输时延的时间;在异步数据复制方式下,RPO基本为异步传输数据排队的时间。在实际应用中,同步模式下,RPO一般为0,而在非同

浪潮双活存储解决方案

浪潮双活存储解决方案 Prepared on 22 November 2020

浪潮数据中心存储双活解决方案 【需求分析】 大数据时代,数据已经成为各行业至关重要的核心资产。传统的灾备方案中存在着资源利用率低、可用性差、出现故障时停机时间长、数据恢复慢、风险高等问题。数据是否安全、业务是否连续运行无中断成为用户衡量一个灾备方案的关键。 传统数据中心存储灾备一般采用主备模式,只有当生产数据中心存储故障后,灾备中心存储才会接管数据访问业务,并且此过程需要手动执行,将灾备中心对应的业务Lun手动激活读写服务;此外,主备数据中心的模式,在正常业务运转情况下,只有主中心发挥作用,备中心的资源一直处于“待命”模式,无法最大程度发挥所有资源的效率。 双活数据中心将是未来数据中心发展的趋势,而存储双活又是数据中心双活的重要基础。 【浪潮存储双活方案设计】 浪潮AS8000-M3使用虚拟卷镜像与节点分离两个核心功能实现数据存储的双活构建: ?AS8000-M3虚拟卷镜像功能实现: 浪潮AS8000-M3作为异构存储整合的专业设备,可以实现在两台存储设备之间实现逻辑卷的镜像。保障单个磁盘的故障或单台存储的故障都不造成对前端服务器性能的影响,实现业务连续性。 上图是通过AS8000-M3实现两台阵列之间存储镜像的示意图,对于底层的磁盘阵列来说,其使用方式与现在相同,对其内部的磁盘先进行RAID,然后在RAID组上进行逻辑磁盘(LUN)的划分。如上图的例子中,首先对两个阵列的磁盘做RAID5,然后在左边阵列中再作成LUNa和LUNb两个逻辑磁盘,同样在右边阵列中可以作成LUN1和LUN2两个逻辑磁盘。AS8000-M3将从左边磁盘阵列获得的管理磁盘a和从右边阵列获得的管理磁盘1进行镜像后,形成了虚拟卷为虚拟卷1,然后再将虚拟卷1映射给服务器。服务器就像使用本地磁盘一样的使用虚拟卷1。使用AS8000-M3进行跨阵列镜像后,对于服务器获得的虚拟卷来说,不会因为任何一个后端磁盘存储系统的故障而出现问题。 ?AS8000-M3节点分离功能实现: 浪潮AS8000-M3拥有节点分离功能,可以把AS8000-M3一个节点组中的两个控制器节点分开放置,两个节点间最远距离可以达到100KM,AS8000-M3节点分离功能只是物理节点的分开放置,但是在用户对于数据的访问以及在 AS8000-M3对于后挂存储空间的管理上与一个节点组处理方式相同,如果一个

浪潮双活存储解决方案

浪潮数据中心存储双活解决方案 【需求分析】 大数据时代,数据已经成为各行业至关重要的核心资产。传统的灾备方案中存在着资源利用率低、可用性差、出现故障时停机时间长、数据恢复慢、风险高等问题。数据是否安全、业务是否连续运行无中断成为用户衡量一个灾备方案的关键。 传统数据中心存储灾备一般采用主备模式,只有当生产数据中心存储故障后,灾备中心存储才会接管数据访问业务,并且此过程需要手动执行,将灾备中心对应的业务Lun手动激活读写服务;此外,主备数据中心的模式,在正常业务运转情况下,只有主中心发挥作用,备中心的资源一直处于“待命”模式,无法最大程度发挥所有资源的效率。 双活数据中心将是未来数据中心发展的趋势,而存储双活又是数据中心双活的重要基础。 【浪潮存储双活方案设计】 浪潮AS8000-M3使用虚拟卷镜像与节点分离两个核心功能实现数据存储的双活构建: AS8000-M3虚拟卷镜像功能实现: 浪潮AS8000-M3作为异构存储整合的专业设备,可以实现在两台存储设备之间实现逻辑卷的镜像。保障单个磁盘的故障或单台存储的故障都不造成对前端服务器性能的影响,实现业务连续性。

上图是通过AS8000-M3实现两台阵列之间存储镜像的示意图,对于底层的磁盘阵列来说,其使用方式与现在相同,对其内部的磁盘先进行RAID,然后在RAID 组上进行逻辑磁盘(LUN)的划分。如上图的例子中,首先对两个阵列的磁盘做RAID5,然后在左边阵列中再作成LUNa和LUNb两个逻辑磁盘,同样在右边阵列中可以作成LUN1和LUN2两个逻辑磁盘。AS8000-M3将从左边磁盘阵列获得的管理磁盘a和从右边阵列获得的管理磁盘1进行镜像后,形成了虚拟卷为虚拟卷1,然后再将虚拟卷1 映射给服务器。服务器就像使用本地磁盘一样的使用虚拟卷1。使用AS8000-M3进行跨阵列镜像后,对于服务器获得的虚拟卷来说,不会因为任何一个后端磁盘存储系统的故障而出现问题。 AS8000-M3 节点分离功能实现: 浪潮AS8000-M3拥有节点分离功能,可以把AS8000-M3一个节点组中的两个控制器节点分开放置,两个节点间最远距离可以达到100KM,AS8000-M3 节点分离功能只是物理节点的分开放置,但是在用户对于数据的访问以及在AS8000-M3对于后挂存储空间的管理上与一个节点组处理方式相同,如果一个AS8000-M3节点故障,将由另外一个站点的AS8000-M3 节点接管数据IO,所有应用系统将不受影响。

存储双活架构对比分析

存储双活架构对比分析 世界上没有完美的东西,所有东西都有利弊两个方面。双活项目的建设也是同样。双活是要提升系统的健壮性,进而保证业务的连续性,而双活的弊端是少有人提及的就是要牺牲一部分性能和容量,同时如果较远,还涉及到链路成本。 目前主流的存储双活解决方案,主要有存储网关双活解决方案和存储阵列双活解决方案两类,其中,存储阵列双活解决方案又可以分为双读双写的真正双活解决方案和读写一台仅能够做故障切换的伪双活解决方案。如下图所示: 存储虚拟化网关的双活存储阵列伪双活解决方案存储阵列双读双写解决方案 代表厂家:代表厂家:代表厂家: EMC VPLEX IBM DS8000 HyperSwap HDS VSP GAD IBM SVC HP Peer Persistence EMC VMAX SRDF/Metro

HW Hyper Metro HP XP7 GAD Netapp Metro Cluster 我们可以从如下几个方面来看: 1、发展趋势 EMC和IBM均有采用网关方式实现双活的解决方案,但是,通常是与中低端存储相结合 的廉价解决方案。 对于较大负载的企业级应用,通常采用存储阵列双活解决方案。伪双活解决方案代表产品 是已经基本停止存储研发的IBM的DS8000的HyperSwap、HP中端存储的Peer Persistence、Netapp的Metrocluster和华为的Hyper Metro都是可以实现单台阵列故障另外一台自动接管,但是日常应用读写只能够使用一台,另外一台仅作为备用,这样在做真正的较远距离双活集群时 会遇到很尴尬的问题,如果是Oracle RAC分布在两个机房,总有一端的oracle数据库无法读写本地磁盘,而要经过漫长的中间链路去读写远端磁盘,性能会成为极大的瓶颈。相比较而言,高 端存储的双活技术包括HDS的VSP GAD、EMC VMAX的SRDF/Metro和HP的XP7 GAD, 都是不仅能够实现故障自动切换,而且可以同一业务的双读双写,可以与各类集群软件相互配合 实现负载均衡。 当然,目前的产品形态,还有如下原因。 2、系统可靠性 任何复杂系统都是由多个部件组成的,在常见系统中,系统控制理论将系统分为串行系统和并行系统,结构如下图所示:

统一存储双活方案

统一存储双活方案1、双活存储架构建设目标 系统灾难是指IT系统发生重要业务数据丢失或者使业务系统停顿过长时间(不可忍受)的事故。可能引发系统灾难的因素包括:?系统软、硬件故障,如:软、硬件缺陷、数据库或其他关键应用发生问题、病毒、通信障碍等; ?机房环境突发性事故,如:电源中断、建筑物倒塌、机房内火灾等; ?人为因素,如:因管理不完善或工作人员操作不当、人为蓄意破坏、暴力事件等; ?自然灾害:如火灾、地震、洪水等突发而且极具破坏性的事故。 其特点是突发性、高破坏强度、大范围。在灾难性事故的影响下,计算中心机房的硬件设备会部分或完全损坏,造成业务的停顿。请参见下图:

当前用户IT系统缺乏有效的灾难防范手段,难以在灾难发生后,不间断或者迅速地恢复运行。灾难恢复就是在IT系统发生系统灾难后,为降低灾难发生后造成的损失,重新组织系统运行,从而保证业务连续性。 其目标包括: ●保护数据的完整性、一致性,使业务数据损失最少; ●快速恢复业务系统运行,保持业务的连续性。 灾难恢复的目标一般采用RPO和RTO两个指标衡量。 技术指标RPO、RTO: RPO (Recovery Point Objective): 以数据为出发点,主要指的是业务系统所能容忍的数据丢失量。即在发生灾难,容灾系统接替原生产系统运行时,容灾系统与原生产中心不一致的数据量。RPO是反映恢复数据完整性的指标,在半同步数据复制方式下,RPO等于数据传输时延的时间;在异步数据复制方式下,RPO基本为异步传输数据

排队的时间。在实际应用中,同步模式下,RPO一般为0,而在非同步模式下,考虑到数据传输因素,业务数据库与容灾备份数据库的一致性是不相同的,RPO表示业务数据与容灾备份数据的时间差。换句话说,发生灾难后,启动容灾系统完成数据恢复,RPO就是新恢复业务系统的数据损失量。 RTO (Recovery Time Objective):即应用的恢复时间目标。RTO 主要指的是所能容忍的应用停止服务的最长时间,也是是反映业务恢复及时性的指标,表示业务从中断到恢复正常所需的时间。RTO值越小,代表容灾系统的数据恢复能力越强。各种容灾解决方案的RTO有较大差别,基于光通道技术的同步数据复制,配合异地备用的业务系统和跨业务中心与备份中心的高可用管理,这种容灾解决方案具有最小的RTO。容灾系统为获得最小的RTO,需要投入大量资金。 各种用户的应用对RTO要求不同,业务繁忙的关键业务需要较小的RTO,如果系统恢复时间过长就会影响到业务运行,而许多业务系统的RTO较长,如果一些较小灾难发生在非业务运行时间,那么对业务连续性几乎不会造成任何影响。各种容灾解决方案的RTO有较大差别,基于光通道技术存储区域网(SAN)的同步数据复制,配合远程备用业务系统和跨生产中心与容灾中心的高可用管理系统,这种容灾解决方案具有最小的RTO。相比较而言,普通磁带备份的RTO较长,当灾难发生时需要更长的时间恢复系统。 两存储之间为双活互备工作模式

曙光DS800-G25双活数据中心解决方案介绍

曙光DS800-G25 双活数据中心解决方案介绍 曙光信息产业股份有限公司

1解决方案概述 在信息社会里,数据的重要性已经毋容置疑,作为数据载体的存储阵列,其可靠性更是备受关注。尤其在一些关键应用中,不仅需要单台存储阵列自身保持高可靠性,往往还需要二台存储阵列组成高可靠的系统。一旦其中一台存储阵列发生故障,另一台可以无缝接管业务。这种两台存储都处于运行状态,互为冗余,可相互接管的应用模式一般称之为双活存储。 由于技术上的限制,传统的双活存储方案无法由存储阵列自身直接实现,更多的是通过在服务器上增加卷镜像软件,或者通过增加额外的存储虚拟化引擎实现。通过服务器上的卷镜像软件实现的双活存储,实施复杂,对应用业务影响大,而且软件购买成本较高。通过存储虚拟化引擎实现的双活存储,虽然实施难度有一定降低,但存储虚拟化引擎自身会成为性能、可靠性的瓶颈,而且存在兼容性的限制,初次购买和维护成本也不低。 曙光DS800-G25双活数据中心方案采用创新技术,可以不需要引入任何第三方软硬件,直接通过两台DS800-G25存储阵列实现两台存储的双活工作,互为冗余。当其中一台存储发生故障时,可由另一台存储实时接管业务,实现RPO、RTO为0。这是一种简单、高效的新型双活存储技术。

2产品解决方案 曙光DS800-G25双活数据中心方案由两台存储阵列组成,分别对应存储引擎A、引擎B。存储引擎A和B上的卷可配置为双活镜像对,中间通过万兆以太网链路进行高速数据同步,数据完全一致。由于采用虚拟卷技术,双活镜像对中的两个卷对外形成一个虚拟卷。对服务器而言,双活镜像对就是可以通过多条路径访问的同一个数据卷,服务器可以同时对双活镜像对中两个卷进行读写访问。组成双活镜像系统的两台存储互为冗余,当其中一台存储阵列发生故障时,可由另一台存储阵列直接接管业务。服务器访问双活存储系统可根据实际需要,选用FC、iSCSI方式,服务器访问存储的SAN网络与数据同步的万兆网络相互独立,互不干扰。 组网说明: 1)服务器部署为双机或集群模式,保证服务器层的高可用, 2)存储与服务器之间的连接可以采用FC、iSCSI链路,建议部署交换机进行组网; 3)存储之间的镜像通道采用10GbE链路,每个控制器上配置10GbE IO接口卡,采用光纤交叉直

宏杉科技双活存储解决方案介绍

MacroSAN 双活存储解决方案介绍 杭州宏杉科技有限公司

1. 解决方案概述 在信息社会里,数据的重要性已经毋容置疑,作为数据载体的存储阵列,其可靠性更是备受关注。尤其在一些关键应用中,不仅需要单台存储阵列自身保持高可靠性,往往还需要二台存储阵列组成高可靠的系统。一旦其中一台存储阵列发生故障,另一台可以无缝接管业务。这种两台存储都处于运行状态,互为冗余,可相互接管的应用模式一般称之为双活存储。 由于技术上的限制,传统的双活存储方案无法由存储阵列自身直接实现,更多的是通过在服务器上增加卷镜像软件,或者通过增加额外的存储虚拟化引擎来实现。通过服务器上的卷镜像软件实现的双活存储,实施复杂,对应用业务影响大,而且软件购买成本较高。通过存储虚拟化引擎实现的双活存储,虽然实施难度有一定降低,但存储虚拟化引擎自身会成为性能、可靠性的瓶颈,而且存在兼容性的限制,初次购买和维护成本也不低。 宏杉科技的对称双活存储(Symmetrical Dual Active Storage,简称SDAS)是一项专门针对双活存储方案的创新技术。通过宏杉科技对称双活存储技术,可以不需要引入任何第三方软硬件,直接通过两台同档次的MS系列存储阵列实现两台存储的双活工作,互为冗余。当其中一台存储发生故障时,可由另一台存储实时接管业务,实现RPO、RTO为0。这是一种简单、高效的新型双活存储技术。 宏杉科技的SDAS技术,不仅支持近距离的双活存储系统,而且支持上百公里甚至更远的远距离双活数据中心。近距离的双活存储可以采用更加高效的光纤交叉直连的方式进行组网部署,远距离的双活数据中心采用交换机连接方式,再配以仲裁者机制进行组网部署。宏杉科技的SDAS两套存储之间的链路不仅可以支持10GE以太网,而且在业界率先支持40GE以太网技术。40GE具有目前以太网应用领域中的最高的传输带宽,可以大大降低同步数据传输时延。 目前宏杉科技的MS3000、MS5500、MS7000存储产品都已经支持对称双活存储技术。

浪潮双活存储解决方案

浪潮数据中心存储双活解决方案【需求分析】 大数据时代,数据已经成为各行业至关重要的核心资产。传统的灾备方案中存在着资源利用率低、可用性差、出现故障时停机时间长、数据恢复慢、风险高等问题。数据是否安全、业务是否连续运行无中断成为用户衡量一个灾备方案的关键。 传统数据中心存储灾备一般采用主备模式,只有当生产数据中心存储故障后,灾备中心存储才会接管数据访问业务,并且此过程需要手动执行,将灾备中心对应的业务Lun手动激活读写服务;此外,主备数据中心的模式,在正常业务运转情况下,只有主中心发挥作用,备中心的资源一直处于“待命”模式,无法最大程度发挥所有资源的效率。 双活数据中心将是未来数据中心发展的趋势,而存储双活又是数据中心双活的重要基础。 【浪潮存储双活方案设计】 浪潮AS8000-M3使用虚拟卷镜像与节点分离两个核心功能实现数据存储的双活构建: AS8000-M3虚拟卷镜像功能实现: 浪潮AS8000-M3作为异构存储整合的专业设备,可以实现在两台存储设备之间实现逻辑卷的镜像。保障单个磁盘的故障或单台存储的故障都不造成对前端服务器性能的影响,实现业务连续性。 上图是通过AS8000-M3实现两台阵列之间存储镜像的示意图,对于底层的磁盘阵列来说,其使用方式与现在相同,对其内部的磁盘先进行RAID,然后在RAID 组上进行逻辑磁盘(LUN)的划分。如上图的例子中,首先对两个阵列的磁盘做RAID5,然后在左边阵列中再作成LUNa和LUNb两个逻辑磁盘,同样在右边阵列中可以作成LUN1和LUN2两个逻辑磁盘。AS8000-M3将从左边磁盘阵列获得的管理磁盘a和从右边阵列获得的管理磁盘1进行镜像后,形成了虚拟卷为虚拟卷1,然后再将虚拟卷1映射给服务器。服务器就像使用本地磁盘一样的使用虚拟卷1。 使用AS8000-M3进行跨阵列镜像后,对于服务器获得的虚拟卷来说,不会因为任何一个后端磁盘存储系统的故障而出现问题。 ?AS8000-M3节点分离功能实现: 浪潮AS8000-M3拥有节点分离功能,可以把AS8000-M3一个节点组中的两个控制器节点分开放置,两个节点间最远距离可以达到100KM,AS8000-M3节点分离功能只是物理节点的分开放置,但是在用户对于数据的访问以及在AS8000-M3对于后挂存储空间的管理上与一个节点组处理方式相同,如果一个AS8000-M3

HDS双活解决方案,1

真正的双活解决方案——HDS全局动态存储虚拟化技术 “双活”近年来一直是业界的热门词汇,特别是在金融业。商业银行多年来致力于容灾备份系统的建设,但确保业务连续性仍是银行信息化需要持续研究的课题。为建立一套真正的双活数据中心,HDS提供的不是一个“封装”解决方案,也不是“外部虚拟化”解决方案,HDS提供的是全局动态存储虚拟化技术(包括双活镜像)——一个真正的双活方案!这不仅实现了IT系统管理的大幅简化与自动化,并具有高可用性特征,可确保关键数据和应用程序的永续运行。 HDS在2014年上半年领先发布了一款革命性产品HDS Virtual Storage Platform G1000(VSP G1000),VSP G1000中的Storage Virtualization Operating System (SVOS)即提供了双活数据中心技术(Global Active Device,GAD)。 零停机,业务永续 GAD功能支持同时在两个地方保存同一数据的读/写副本。其双活设计可以在两个VSP G1000系统之间实现镜像存储卷,这两个VSP G1000系统能够在两端同时接受读/写操作并持续进行更新。如果一个站点的磁盘控制柜发生故障,另一个站点的控制柜将自动接管并继续接受读/写操作。双活数据中心方案可确保最新的存储卷始终可用,并在这两个系统上支持生产工作负载,同时保持完整的数据一致性和数据保护能力。 对于许多关键业务应用而言,任何妨碍数据访问的故障都会导致应用中断,并可能需要进行手动故障切换,以切换到灾备中心。GAD可以在本地及同城提供双活延伸集群,利用双活延伸集群可以实现不停机的工作负载迁移和数据迁移。同时配合使用多路径软件,可以让应用从最短路径访问数据,以获得最高性能。 零RPO / RTO,高枕无忧 银行容灾系统建设的终极目标是实现数据保护和持续不间断的对外服务。传统容灾系统可以做到RPO为零,很难做到RTO为零,因为系统恢复需要时间。而一旦实现双活,RPO和RTO在某些场景下都可以做到“零“,这对于用户来说是一项革命性的进步。数据中心双活技术可以协助银行IT部门实现无缝容灾,业务和服务完全无感知。 零锁定,面向多供应商 HDS GAD面向VMware, Microsoft Hyper-V 以及Oracle 也实现“始终可用”。 HDS 双活技术优势可以概括为以下几方面。 (1)VSP G1000全交换架构,高性能,高可靠性,存储虚拟化整合,分开摆放; (2)Array-SAN-Host 三层架构,结构简单,无四层架构性能瓶颈点和风险点,便于实施,基于存储实现企业级双活; (3)支持结构化和非结构化数据,实现全业务的双活; (4)仲裁机制,避免“脑裂”; (5)就近读,精简配置卷,保障最佳性能; (6)未来扩展N 活,双活+远程异步容灾,实现最佳的系统可用性。 HDS正在利用 GAD技术使存储虚拟化架构实现跨多个企业级存储系统的横向扩展。到目前为止,国内已经有诸多大型银行、医疗机构、教育机构在研究和部署HDS双活解决方案,HDS将全力协助更多客户实现业务与服务的永续运行!FCC 82FINANCIAL?COMPUTER?OF?CHINA

Fujitsu 存储双活解决方案

谈谈Fujitsu 存储双活解决方案 前两天,《高端存储知识》的作者西瓜哥发表了一篇文章《原来富士通ETERNUS DX S3系列已经支持双活,但好像没有看到仲裁机制》,文中对ETERNUS DX S3系列StorageCluster(存储高可用)解决方案进行了相关的介绍和应用场景的分析。在这里要感谢西瓜哥对Fujitsu ETERNUS存储双活解决方案关注和技术普及,同时,我们也将对文中的一些理解偏差(姑且这么说吧)进行进一步的解释和阐述。 问题一:Storage Cluster是否有仲裁机制? 要回答这个问题,我们首先来看看Storage cluster解决方案架构图。 这里仅简单说明一下:生产存储和备用存储之间使用FC链路,通过存储自带的远程复制技术实现LUN数据的实时同步复制,同时生产LUN和备份LUN都Mapping给前端业务主机。当生产存储出现故障时,将自动切换到备用存储上,由于生产存储和备用存储Mapping 给前端主机的端口共享相同的一组逻辑WWPN/WWNN,所以对前端主机来说,后台只有一台存储,且切换是透明的,所以前端绝大多数应用是不会中断的。

上图中的工作站Storage Cluster Controller就是存储双活解决方案中的仲裁者,它时刻监控着生产存储、备用存储的健康状态,当生产存储或者备用存储出现问题,它就开始执行Failover策略。这里需要说明的是Storage Cluster Controller并不是一个单独的软件,它只是一个后台服务进程,该服务进程集成在ETERNUSSF Storage Cruiser Agent软件中,需要单独准备一台工作站或者服务器安装ETERNUSSF Storage 管理套件。 那Storage Cluster Controller什么时候干活呢?它如何干活呢?它干些什么事呢?那就进入第二个话题----Storage cluster 故障处理机制。 问题二:Storage Cluster 故障处理机制 在一个SAN环境中基本包含三类组件:主机、交换机、存储。StorageCluster不关心前端的主机和交换机故障,只关注存储故障。也就是说主机链路或者交换机故障,多路径软件负责链路的切换,跟后台存储没有一分钱关系。 现分别介绍存储出现故障时,Storage Cluster Controller怎么来仲裁的? 场景一:生产存储RAID故障

NetApp统一存储双活实施方案

NetApp统一存储双活方案

————————————————————————————————作者:————————————————————————————————日期:

NetAp统一存储双活 方案 NetApp统一存储双活方案 1、双活存储架构建设目标 系统灾难是指IT系统发生重要业务数据丢失或者使业务系统停顿过长时间(不可忍受)的事故。可能引发系统灾难的因素包括:?系统软、硬件故障,如:软、硬件缺陷、数据库或其他关键应用发生问题、病毒、通信障碍等; ?机房环境突发性事故,如:电源中断、建筑物倒塌、机房内火灾等; ?人为因素,如:因管理不完善或工作人员操作不当、人为蓄意破坏、暴力事件等; ?自然灾害:如火灾、地震、洪水等突发而且极具破坏性的事故。 其特点是突发性、高破坏强度、大范围。在灾难性事故的影响下,计算中心机房的硬件设备会部分或完全损坏,造成业务的停顿。请参见下图:

当前用户IT系统缺乏有效的灾难防范手段,难以在灾难发生后,不间断或者迅速地恢复运行。灾难恢复就是在IT系统发生系统灾难后,为降低灾难发生后造成的损失,重新组织系统运行,从而保证业务连续性。其目标包括: ●保护数据的完整性、一致性,使业务数据损失最少; ●快速恢复业务系统运行,保持业务的连续性。 灾难恢复的目标一般采用RPO和RTO两个指标衡量。 技术指标RPO、RTO: RPO (Recovery Point Objective): 以数据为出发点,主要指的是业务系统所能容忍的数据丢失量。即在发生灾难,容灾系统接替原生产系统运行时,容灾系统与原生产中心不一致的数据量。RPO是反映恢复数据完整性的指标,在半同步数据复制方式下,RPO等于数据传输时延的时间;在异步数据复制方式下,RPO基本为异步传输数据排队的时间。在实际应用中,同步模式下,RPO一般为0,而在非同

华为存储双活解决方案

华为双活解决方案彩页Huawei Active-Active Solution Brochure

前言Overview 随着企业信息系统的快速发展和业务大集中速度的加快,企业信息中心技术风险也相对集中。一旦生产中心需要升级维护,或发生停电、火灾等灾难时,将导致企业业务处理停顿,甚至客户数据丢失,给企业带来巨大的经济和名誉损失。 作为全球领先的信息与通信解决方案供应商,华为基于对企业容灾需求的深刻理解,通过对容灾领域多年的技术研究,开发出华为存储双活解决方案,对用户数据的和业务连续性的有效保护,完成存储资源的整合和按需分配,还通过可视化的管理极大提高容灾业务运维的便利性。 华为存储双活解决方案将帮助企业应对突发事件和灾难,为企业的业务连续性和数据安全保驾护航。 挑战Challenges 随着信息化技术的发展,企业的容灾建设正面临着诸多挑战: 需要保证数据的安全性和可恢复性,满足7x24小时高可靠运行的业务连续性要求。 各类应用系统环境复杂,文件、数据库、虚拟化平台等均有业务连续性需求。 容灾演练操作步骤复杂,需要太多人工干预,容易发生遗漏和误操作;同时容灾 业务管理复杂,运维成本高,效率低。

SAN/NAS/Dorado 其他华为站点A SAN/NAS/Dorado 其他华为站点B 华为公司基于对容灾建设需求的深入了解,结合华为在容灾领域的多年技术积累和优秀实践,推出了华为存储双活解决方案。它在实现了对数据和业务的多层次容灾保护的同时,解决了不同厂商设备之间容灾的兼容性问题,并通过可视化的容灾管理系统,有效提高了容灾业务的管理效率。 为了更贴近客户的真实场景,华为还与应用厂商进行联合调优,共同输出华为存储、网络、光传输设备与应用结合的经过验证的端到端的最佳实践,覆盖Oracle、VMware、SAP等主流数据库、虚拟化和应用平台。 华为双活解决方案Huawei Active-Active Solution HyperMetro 华为存储双活解决方案 Oracle RAC集群 VMware集群 文件系统集群 SAP应用集群 …… SAN/NAS/Dorado 其他华为IP&FC 站点A SAN/NAS/Dorado 其他 华为IP&FC 站点B

EMC双活数据中心解决方案 V4.0资料

EMC数据中心容灾系统 建设方案建议书 EMC电脑系统(中国)有限公司 Version 1.0,2014/10

前言 信息是用户的命脉, 近十年来信息存储基础设施的建设在用户取得长足的进步。从内置存储转向外置RAID存储,从多台服务器共享一台外置RAID阵列,再到更多台服务器通过SAN共享更大型存储服务器。存储服务器容量不断扩大的同时,其功能也不断增强,从提供硬件级RAID保护到独立于服务器的跨磁盘阵列的数据镜像,存储服务器逐渐从服务器外设的角色脱离出来,成为单独的“存储层”,为数据中心的服务器提供统一的数据存储,保护和共享服务。 随着用户业务的不断发展,对IT系统尤其是存储系统的要求越来越高,鉴于用户业务由于信息的重要性,要求各地各用户多中心来预防单一数据中心操作性风险。 多数据中心建设方案可以预防单数据中心的风险,但面对多数据中心建设的巨额投资,如何同时利用多数据中心就成为IT决策者的首要问题。同时利用多数据中心就必需实现生产数据跨中心的传输和共享,总所周知,服务器性能的瓶颈主要在IO部分,数据在不同中心之间的传输和共享会造成IO延时,进而影响数据中心的总体性能。 同时,各家厂商不断推出新技术,新产品,容量不断扩展,性能不断提高,功能越来越丰富,但由于不同存储厂商的技术实现不尽相同,用户需要采用不同的管理界面来使用不同厂商的存储资源。这样,也给用户业用户带来不小的问题,首先是无法采用统一的界面来让服务器使用不同厂商的存储服务器,数据在不同厂商存储服务器之间的迁移也会造成业务中断。 作为信息存储行业的领先公司,EMC公司针对用户跨数据中心信息传输和共享的迫切需求,推出存储VPlex解决方案,很好的解决了这些问题。本文随后将介绍VPlex产品及其主要应用场景,供用户信息存储管理人士参考。

互联网+双活数据中心解决方案

构建永不宕机的信息系统 ——双活数据中心

双活数据中心解决方案目录 案例分享 12

存储层 应用层 双活数据中心端到端技术架构 数据中心A 数据中心B 双活存储层双活访问、数据零丢失 异构阵列 双活应用层 Oracle RAC 、VMware 、FusionSphere 跨DC 高可用、 负载均衡、迁移调度 双活网络层高可靠、优化的二层互联 最优的访问路径 ≤100km 裸光纤 Fusion Sphere Fusion Sphere 接入层 汇聚层核心层DC 出口网络层 GSLB SLB GSLB SLB

前端应用的双活(VMware ) vm vm vm vm vm vm vm vm vm vm vm vm AD vm vm vm vm SQL node1MSCS vCenter Server vm vm vm vm APP……. APP……. SQL node2MSCS vm vm vm vm vm vm vm vm vm 大二层互通网络,跨数据中心VM 配置双活应用,使用虚拟化网关提供的镜像卷作为共享存储 Weblogic 业务集群 管理集群 vm Weblogic ?vSphere Cluster HA ?vSphere Cluster DRS ?配置PDL 参数 ?Huawei OceanStor UltraPath for vSphere ? 配合负载均衡设备实现 Weblogic 访问自动漂移和均衡 VMware 配置要点 业务访问效果 ?业务访问负载均衡 ?虚拟机分布按业务压力自动均衡 ?故障自动切换访问?Weblogic 可动态扩展 ? 单数据中心故障恢复后,虚拟机自动回切

双活数据中心解决方案-设计方案

双活数据中心解决方案

目录 1 用户面临的挑战和需求 (3) 1.1面临的挑战 (3) 1.2迫切需求 (3) 2NetApp双活数据中心解决方案 (4) 3NetApp解决方案优势 (5)

1用户面临的挑战和需求 1.1 面临的挑战 ?目前几乎所有金融行业用户的业务正常开展都离不开后端IT环境的支持,一旦IT 环境由于各种原因不能正常提供支撑服务,就会对用户的业务造成巨大影响。因此金融用户对后端IT系统的可靠性和可用性的要求越来越高,需要保证IT系统7×24的运行能力。 ?虽然目前大部分的专业存储系统均实现了硬件容灾保护,单个部件的失效不会导致其数据访问能力的失效。但是一旦某套存储系统由于一些严重故障或灾难性事故导致其整体性失效,则会导致前端应用系统的宕机从而影响业务系统的正常运行。因此金融用户需要在硬件冗余的基础上提供更高的可靠性保证。 ?目前很多金融用户已经采取了多数据中心的架构,并且在多个数据中心之间进行了数据容灾保护架构的建设。但是由于传统的容灾架构基本上采用了Active-Standby 的方式,因此一方面限制了数据中心的角色和功能,另一方面也限制了用户在各个数据中心部署应用系统的灵活性。最重要的一点,传统的容灾架构在进行容灾恢复的时候过程复杂且冗长,缺乏足够的智能化。因此金融用户需要一种更加灵活更加智能化的多数据中心架构。 1.2 迫切需求 ?后端存储系统在硬件冗余保护的基础上,需要提供更高级别的可靠性保证,能在存储系统发生整体性故障的时候还能保证数据访问的正常进行,从而防止这些严重故障或灾难性事故对业务系统造成严重影响。 ?实现双活的数据中心架构替代原有的Active-Standby架构,双活数据中心架构必须提供如下的功能: o前端应用服务器可以从两个数据中心均能对同一份数据进行正常访问,同一个应用的服务器可以根据实际需要部署在两个中心当中的任何一个或同 时部署在两个中心,部署在两个中心的应用服务器均可以处于服务提供状 态

HDS GAD 存储双活竞争对比分析

世界上没有完美的东西,所有东西都有利弊两个方面。双活项目的建设也是同样。双活是要提升系统的健壮性,进而保证业务的连续性,而双活的弊端是少有人提及的就是要牺牲一部分性能和容量,同时如果较远,还涉及到链路成本。 目前主流的存储双活解决方案,主要有存储网关双活解决方案和存储阵列双活解决方案两类,其中,存储阵列双活解决方案又可以分为双读双写的真正双活解决方案和读写一台仅能够做故障切换的伪双活解决方案。如下图所示: 存储虚拟化网关的双活存储阵列伪双活解决方案存储阵列双读双写解决方案 代表厂家:代表厂家:代表厂家: EMC VPLEX IBM DS8000 HyperSwapHDS VSP GAD IBM SVC HP Peer PersistenceEMC VMAX SRDF/Metro HW Hyper Metro HP XP7 GAD Netapp Metro Cluster 我们可以从如下几个方面来看: 1、发展趋势 EMC和IBM均有采用网关方式实现双活的解决方案,但是,通常是与中低端存储相结合的廉价解决方案。 对于较大负载的企业级应用,通常采用存储阵列双活解决方案。伪双活解决方案代表产品是已经基本停止存储研发的IBM的DS8000的HyperSwap、HP中端存储的Peer Persistence、Netapp的Metrocluster和华为的Hyper Metro都是可以实现单台阵列故障另外一台自动接管,但是日常应用读写只能够使用一台,另外一台仅作为备用,这样在做真正的较远距离双活集群时会遇到很尴尬

的问题,如果是Oracle RAC分布在两个机房,总有一端的oracle数据库无法读写本地磁盘,而要经过漫长的中间链路去读写远端磁盘,性能会成为极大的瓶颈。相比较而言,高端存储的双活技术包括HDS的VSP GAD、EMC VMAX的SRDF/Metro和HP的XP7 GAD,都是不仅能够实现故障自动切换,而且可以同一业务的双读双写,可以与各类集群软件相互配合实现负载均衡。 当然,目前的产品形态,还有如下原因。 2、系统可靠性 任何复杂系统都是由多个部件组成的,在常见系统中,系统控制理论将系统分为串行系统和并行系统,结构如下图所示: 左图为串行系统,右图为并行系统,串行系统中只有当A、B均为正常工作状态时,整个系统才能够正常工作,并行系统中,只要A、B有一个正常工作整个系统就是正常工作的。网关类的是串行系统,网关的最大可靠性仅有99.999%,中端存储的可靠性也是99.999%,两者串联后单边的可靠性肯定低于99.999%,这意味着一年的意外停机时间高于5分钟。基于存储阵列的双活,不会因为串入网关导致系统可靠性降低,同时因为高端存储的可靠性通常高于 99.9999%,因此,在高端存储存储领域是不能够容忍加入网关降低系统可靠性的。 同时,因IT技术的复杂性,每多一层中间环节,就会增加故障点,降低系统可靠性。两者的对比如下图所示,网关类的故障点是存储阵列双活的2倍多。

相关文档
相关文档 最新文档