文档库 最新最全的文档下载
当前位置:文档库 › xxxxxxx人民医院PACS影像存储技术建议书

xxxxxxx人民医院PACS影像存储技术建议书

xxxxxxx人民医院PACS影像存储技术建议书
xxxxxxx人民医院PACS影像存储技术建议书

资料编码

xxxxxxx人民医院PACS影像存储技

术建议书

xxxxx人民医院PACS影像存储技术建议书

xxxxx人民医院PACS影像存储技术建议书

目录

1概述 (4)

1.1项目背景 (4)

1.2建设规模及目标 (4)

1.3 PACS方案设计原则 (5)

2 PACS系统设计方案 (6)

2.1总体设计 (6)

2.2组网拓扑及机柜部署图 (7)

2.3软硬件配置说明 (9)

2.4工程实施 (9)

3 PACS方案特点及优势 (11)

3.1弹性扩展 (11)

3.2卓越性能 (11)

3.3数据可靠 (12)

3.4简化管理 (14)

1 概述

1.1 项目背景

随着xxxxx医院业务的逐渐发展,以及业务数据量不断的增大,目前的PACS存储系统已经无法满足其业务增长的需求。原先存放在老存储中的数据,无论在可靠性、容量还是性能方面都无法满足业务要求。因此,建设一套集中存储系统迫在眉睫。集中存储方式,不仅可以解决数据无法共享、本地扩容出现瓶颈等问题,还可以使业务系统的性能得到大幅提升、业务数据的安全性得到更为有效的保障。

1.2 建设规模及目标

xxxxx医院本次将对PACS系统进行集中存储的建设,将数据都集中存储在集群NAS存储系统中。

根据PACS的存储需求进行分析:

1) 该局点主要应用是PACS影像数据的存储,在数据中心放置集群NAS系统,将各种影像的非结构化数据

集中存储在该系统上;

2)本次建设需要考虑未来几年内的容量需求扩容,要求存储系统具备高扩展性;

3)数据量扩展时需满足业务增多所带来的并发增大的需求,也就是说,容量扩展时,并发量需要增大,整体

性能得到提升;

1.3 PACS方案设计原则

通过对用户需求的了解,结合PACS系统的应用特点,建议用户存储系统在建设过程中应当遵循如下原则进行:

安全可靠性原则

●系统支持从硬件层面,数据层面到业务层面高可用,满足可用性原则;

●系统支持存储系统集群,满足高可靠性需求;系统具备充分的数据冗余,数据容错能力;

●系统具有专业的技术保障体系以及数据可靠性保证机制;

●系统在存储节点损坏时(包括硬盘,机柜的故障),不会丢失数据;

●系统在发生数据损坏时,有数据自愈能力;

●确保系统具有高度的安全性,提供安全的登录和访问措施,防止系统被攻击;

●异常掉电后不丢失数据,供电恢复后自动重新启动并自动恢复正常连接;

●系统器件选择要考虑能支持7×24小时连续长时间大压力下工作;

扩展性原则

●系统易于扩展,支持10PB级数据存储;系统在容量扩展时,性能得到提升;

●系统选择标准化的部件,利于灵活替换和容量扩展;

先进性原则

●系统必须严格遵循国际标准、国家标准和国内通信行业的规范要求;

●需符合存储技术以及IT行业的发展趋势,所选用的产品型号已规模上量;

●所有的系统处于先进的技术水平,确保较长时间内技术上不落伍;

●系统的处理能力要达到业内领先,对于本次业务的使用要留有一定的余量,以满足后续升级的需求;

开放性原则

●系统必须支持国际上通用的标准网络存储协议、国际标准的应用开放协议;

●与主流服务器之间保持良好的兼容性;兼容各主流操作系统及应用程序;

●可以与第三方管理平台集成,提供给客户定制化的管理维护手段;

●满足今后的发展,留有充分的扩充余地;

易维护性原则

●系统支持简体中文,通俗易懂,操作方便、简单;

●系统具有充分的权限管理,日志管理、故障管理,并能够实现故障自动报警;

●系统设备安装使用简单,无需专业人员维护;

●系统容量可按需要在线扩展,无需停止业务;系统功能扩充需要升级时,支持不中断业务升级;

●支持图形化界面管理方式;

2 PACS系统设计方案

2.1 总体设计

针对以上问题和需求,OceanStor 9000提供了分布式存储解决方案。该方案面向种类繁多的文件存储上层业务,为客户提供存储多种类型业务数据的方案。该方案要求与其对接的上层业务遵循接口规定,方案的具体描述如下:

1)OceanStor 9000提供统一命名空间的存储系统,多种业务的数据都存储在这个统一的存储空间中,包括文

件,视频,图象等多种类型的业务数据存储;

2)采用OceanStor 9000存储设备,采用全对称分布式架构设计,轻松实现容量扩展,满足日益发展的业务系

统的存储要求,与业务需求相匹配;

3)容量扩展的同时,性能同步提升,避免因为数据量增多而产生的性能瓶颈;

4)支持在线扩容,容量扩展的同时,保证不会中断业务,并且支持多个节点批量扩容;

5)整系统采用集群部署和Erasure code数据保护策略,支持N+1到N+4的数据可靠性保障,以及故障自动检

测、修复技术,保障系统可靠性;

6)OceanStor 9000对外提供NAS接口,支持NFS和CIFS协议共享,适应多种应用场景,例如:支持和文件

业务对接,和图片业务对接等;

7)每种业务对存储空间的需求不同,OceanStor 9000天然支持Thin Provisioning实现空间弹性扩展,满足

不同业务的存储需求,同时不会造成空间定额分配造成的浪费;

8)对设备管理员,提供WEB UI管理工具,统一管理存储设备。

本次方案,主要是PACS系统应用场景。根据容量和性能要求,本次存储系统配置6台存储节点,冗余配比按照4+2:1,76%磁盘利用率,裸容量260TB,可用容量约为200T,满足客户目前业务系统的容量和性能需求。

整体方案架构如图所示:

错误!文档中没有指定样式的文字。OceanStor 9000整体方案架构

2.2 组网拓扑及机柜部署图

系统支持多种组网模式,内外部组网均采用10GE Ethernet组网。系统初期建设配置6台存储节点,随着业务的发展,平滑扩容至40PB。存储网络拓扑结构如下图错误!不能识别的开关参数。所示:

其配置特点如下:

●所有关键业务集中存储,并支持多协议共享;

●内外部组网采用10GE ethernet,特有的TOE网卡和RDMA技术,提高访问效率;

●支持客户端连接负载均衡、配额管理;

支持对归档后的pacs影像数据锁定功能,防止病毒或者人为错误操作修改历史数据。

设备提供整柜交付模式,存储系统柜部署图如下:

1、CE6800交换机:CE6800交换机提供10GE端口接入,负责各存储节点的互联和业务数据通信,每台CE6800交换机使用1.2.3.4.5.6编号接口顺序连接到6个存储节点。

2、CE6800交换机:两台CE6800交换机堆叠接口按顺序相互连接,堆叠接口使用原则如下:节点数量≤

16时,使用2个接口堆叠;16<节点数量≤24时,使用3个接口堆叠;24<节点数量≤40时,使用4个

接口堆叠。本次使用2个接口堆叠。

3、GE交换机:GE交换机作为系统各服务器间的互联设备,完成连接的各组件数据通信、主备份配置。

IPMI下行接口,40个接口顺序连接到节点的IPMI接口;NIC0下行接口,3个接口顺序连接到OceanStor 9000集群最前面的3个节点(基础柜中01~03号节点);10GE交换机管理口连接到两台CE6800交换机

正面的ETH管理网口;上行接口,连接用户的管理维护网络。

4、每个存储节点提供2个10GE接口上行连接到客户现网核心交换机。

2.3 软硬件配置说明

2.4 工程实施

项目实施主要分为三大步骤,即:签订合同、工程实施准备以及工程实施。

签订合同是项目实施的开始,是双方承诺的责任和义务以法律形式确定下来的时刻;工程实施的准备是投标商与供货商在紧密配合下完成设备订货、生产、发货、运输与供货的过程,同时也包括了对用户的先期培训;

工程实施是投标商与供货商以及最终用户在紧密配合共同完成设备的到货、初验、机房装修、模块化机房实施、线路综合布线、设备安装、调试、系统集成与验收的过程。

硬件设备的集成,主要指对各种设备进行的配置、安装与调试工作,所有的硬件设备将在标书规定的地点和环境下,实现正常运行,并达到标书要求的性能和产品技术规格中的性能,具体有如下内容:

xxxxx人民医院PACS影像存储技术建议书

3 PACS方案特点及优势

作为横向扩展存储,OceanStor 9000面向大数据存储市场应对大数据挑战,该场景下业务多变,数据飞速增长,数据安全性要求日益提高,对存储系统提出了较高的要求。OceanStor 9000具备弹性空间、卓越性能、简化管理和高可靠性等特点,有效应对大数据时代的挑战,降低企业CAPEX和TCO。

3.1 弹性扩展

OceanStor 9000采用Scale-out存储架构,将海量数据压力分散到多个并发存储节点,数据和元数据均匀分布于各个节点上,避免资源争用,系统性能(吞吐量)按照比例扩展,并且各个存储节点之间负载均衡,有效避免单节点性能瓶颈。这种架构,不仅保持了对象存储系统高可靠、高性能的优点,而且使得OceanStor 9000系统具有更好的扩展性。OceanStor 9000通过Scale-out架构,轻松实现容量扩展,可实现从3节点到288节点的轻松扩容。

OceanStor 9000能够根据业务增长进行平滑扩容,系统每增加一个存储节点,都能够自动识别,单节点扩容更是小于60秒,将该存储空间加入到整系统中,并根据负载均衡的原则,优先选择新的节点存储,从而简化了系统扩容的管理,降低了操作成本。扩容时容量和性能支持线性扩展,最大可提供40PB规模的单一文件系统,真正实现“应需而变”,为业务的长期高性价比提供保障。

3.2 卓越性能

OceanStor 9000提供业界领先的NAS读写性能,OPS最大可突破500万,而系统总带宽可达200GByte/s,可充分满足媒体编辑和高性能计算等领域的性能要求。

OceanStor 9000性能提升的关键技术包括:

SSD加速

SSD硬盘可解决数据读写性能的瓶颈,提供低延迟和高吞吐量。OceanStor 9000采用SSD硬盘存储元数据,加速元数据访问效率,提升处理能力。

全局缓存

数据在缓存中的读写速度远高于硬盘,但单节点的缓存提升空间有限。同时如果各节点的缓存相互独立,则缓存命中率难以提升,数据的一致性保证机制也会趋于复杂。

OceanStor 9000通过全局缓存模式,整合所有节点缓存,容量最大可达55TB的虚拟缓存池。同一文件的数据在缓存池只缓存一份,任意节点均可命中,有效提高数据访问命中率,减少硬盘读写次数,降低访问时延,提升系统整体性能。

高速互联

OceanStor 9000支持10GE高速以太网,单个节点可提供4个10GE端口。OceanStor 9000还同时支持IB (InfiniBand)网络,带宽高达40Gbit/s,可满足更加苛刻的性能要求。

OceanStor 9000可适配用户的不同组网需求,通过节点间高速互联,降低系统内部时延,提供卓越性能。

并发访问

传统的NAS系统由引擎和存储单元组成。数据的全部并发访问需要先由NAS引擎处理,因此引擎容易成为性能瓶颈。OceanStor 9000采用全对称的逻辑架构,每个节点均可提供业务服务。通过负载均衡设计,数据访问在集群内均匀分布,可大幅提升系统并发访问能力。

3.3 数据可靠

随着IT的发展,人们日益认识到数据是公司最重要的资产,一旦数据丢失,对公司的影响是不可估计的,人们越来越注重数据保护。OceanStor 9000采用业界最高水平的数据保护机制,保证数据的高可靠性:Erasure Code

OceanStor 9000采用Erasure Code保障数据一致性,确保海量数据存储场景下的数据安全可靠。Erasure Code是RAID的超集,能够支持比传统RAID算法更高的可靠性和更灵活的冗余策略,其设计思路是对文件进行原始分片(N份),通过纠错编码生成M个冗余校验块文件。写入时,由客户端进行切片(N)和转码(M),一共生成N+M份数据,存储系统自动从各存储节点中选择一个硬盘组成一个N+M个磁盘的磁盘组,分别写入N+M 份数据。任意一份数据损坏的情况下,可以通过其它数据恢复,最大可以支持M份数据的损坏。

OceanStor 9000采用Erasure Code算法保障数据可靠性,将N+M份数据保存在N+M个不同的虚拟节点上,其中N支持2-16,M支持1/2/3/4。可以看出,它最大可以支持4份数据同时损坏,并且可以通过其它数据分片,恢复原始数据,而不影响系统业务的连续性,数据保护性强于传统的RAID5(只允许一份数据损坏)、RAID6(只允许两份数据损坏)。如下图所示:

图表1 Erasure Code 原理说明图

OceanStor 9000分布式存储系统专门针对小文件存储进行了优化。如果配置了N+M的保护方式,当一个文件的数据量不超过一个分片大小时,系统会自动将其转化为1+M份的存储方式,当数据量超过一个分片大小,系统才会对它进行校验计算。这种优化,可以提高小文件的读写性能和存储利用率。

元数据高可靠

OceanStor 9000的分布式文件系统的元数据,采用存储多份副本的方式,并且对于配置了N+M保护方式的文件来说,其元数据的保存份数自动设定为M+2份,这使得OceanStor 9000分布式存储系统的元数据的可靠性高于其数据。

数据自愈

OceanStor 9000分布式存储系统采用的InfoProtector技术,是华为公司的专利技术。InfoProtector可以提供最多同时故障4个全节点的数据保护。并且硬盘故障时,InfoProtector确保将单个故障盘的重新构建时间缩至最短,达到1TB数据只需要1小时恢复时间,优于友商的数据恢复速度。

数据存储时被分片打散到多个存储节点上,这些分片数据支持分布在不同的存储节点之间。在数据发生故障导致数据不一致时,OceanStor 9000通过内部的自检机制,自动发现数据故障。发现故障后启动数据修复机制,在后台修复数据。由于数据被分散到多个不同的存储节点上保存,数据修复时,在不同的节点上同时启动修复,每个节点上只需修复一小部分数据,多个节点并行工作,有效避免单个节点修复大量数据所产生的性能瓶颈,对上层业务的影响做到最小化。

3.4 简化管理

OceanStor 9000支持可视化自动部署,提供了专门的网管管理工具,它支持WEB UI形式,可以方便的显示所有设备的组网结构,所有设备的容量,CPU,内存等信息,以及所有进程的运行状态,业务的运行状态,实时展示系统性能信息,保存和查询操作日志。管理维护高效集中,简洁易用。管理员可以通过集群内任意节点访问网管界面,完成对硬件、软件、集群和业务的统一管理。单个节点故障不影响网管的正常登录和使用。

相关文档