文档库 最新最全的文档下载
当前位置:文档库 › 云数据中心绿色节能设计及应用实践_韩玉

云数据中心绿色节能设计及应用实践_韩玉

云数据中心绿色节能设计及应用实践_韩玉
云数据中心绿色节能设计及应用实践_韩玉

数据中心能效研究报告

中国数据中心能效研究 报告

前言 数据中心是我国实现经济转型升级的重要基础设施,提供的巨大 数据处理能力是国家战略资源,是实现智能制造、互联网+、物联网、云计算、大数据等技术和应用的基础保障,同时因其巨大的能源消耗和对环境的影响使绿色数据中心成为中国制造2025 中绿色制造中的重点领域。数据中心在我国未来一段时期内将持续快速发展,同时需进行有效管理实现其低碳绿色可持续发展。 数据中心是提供数据计算、存储、交换等资源的服务和其他应用 服务的电子信息基础设施,具备以下特点和作用: 1)是支撑经济转型的重要电子信息基础设施和服务平台 数据中心是提供大规模数据交换、计算、存储等功能的核心基础设施,是满足大规模数字化、网络化、虚拟化和智能化需求的核心节点,是政务、金融、商务、制造、科研和民生服务等活动开展的重要保障。因此数据中心是我国开展经济转型的关键配套和支撑基础设施和服务平台。 2)是支持科技发展和创新的重要载体 数据中心是提供计算等能力的资源池。智能制造、物联网、云计算、大数据等新兴技术和应用以及科学研究等方面的发展和创新都需要以海量数据处理为基础,需要大量调用计算资源开展。数据中心的

核心任务之一就是承载该方面的需求。 3)是信息安全的关键节点 数据中心作为海量数据集中处理的物理设施和平台,由于其在信息链路中的核心作用必然成为信息安全的关键节点。数据中心的安全除信息安全技术领域外还包括计算机机房的物理环境安全。IT 系统无法规避由于运行环境不能满足要求而导致的功能丧失。 4)是节能重点对象 数据中心耗能巨大,对资源需求多样。根据美国能源局的统计数据中心的年耗电量已经占美国年发电量的 1.5%,据估算我国数据中心的年耗电量占比与美国基本相当,已经达到三峡的年发电量。依据对我国全国范围内7000 多家数据的耗电量的调研,不考虑规模前提下,数据中心单体年均耗电量超过一百万度。数据中心在大量耗电的同时也消耗大量水等其他资源。 在新常态下我国的数据中心领域的发展存在着挑战又有着机遇。从人类社会经济的总体发展历程来看经历了从农耕经济到工业制造经济到技术经济再到信息经济的基本过程。在以德日为代表的技术经济受到美国为代表的信息经济的巨大挑战后,如何加强信息化和工业化的深度融合,使信息经济红利可以反哺回制造业等实体经济,这是我国乃至世界范围内共同面临的课题。我国也明确提出了中国制造

数据中心节能方案分析

数据中心节能方案分析 数据中心的能耗问题已越来越成为人们所关注,绿色数据中心的呼声越来越高。由于数据中心涉及的专业很多,研究者往往只从本专业出发,而没有考虑与其他专业的配合问题。随着信息技术的发展,数据中心的节能手段也在不断的更新和提高,目前主要使用的节能手段有以下几个方面。 1.1冷热通道隔离技术 经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,并且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示: 冷热通道完全隔离 隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。 隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,但是他们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃。隔离冷通道的未被隔离部分空

大数据中心方案设计(机房)

计算机数据中心机房系统设计方案 (模板)

目录 1.机房设计方案 6 1.1概述 6 1.1.1概述 6 1.1.2工程概述说明 6 1.1.3设计原则7 1.1.4建设内容实施7 1.1.5设计依据8 1.1.6引用标准8 1.1.7设计指标9 1.1.9设计思想及特点11 1.1.10绿色数据中心建设12 1.2装饰装修工程14 1. 2.1机房的平面布局和功能室的划分14 1.2.2装修材料的选择14 1.2.3机房装饰的特殊处理17 1.3供配电系统(UPS系统)18 1. 3.1供配电系统设计指标18 1.3.2供配电系统构成20 1.3.3供配电系统技术说明20 1.3.4供配电设计21 1.3.5电池22 1.4通风系统(新风和排风)22 1. 4.1设计依据22

1.4.2设计目标22 1.4.3设计范围22 1.4.4新风系统22 1.4.5排烟系统23 1.4.6风幕机系统23 1.5精密空调系统23 1.5.1机房设备配置分析23 1.6防雷接地系统25 1.6.1需求分析25 1.6.2系统设计25 1.7综合布线系统26 1.7.1系统需求分析26 1.7.2机房布线方案27 1.7.3子系统主要技术说明27 1.8门禁系统28 1.8.1需求分析28 1.8.2系统设计28 1.9机房视频监控29 1.9.1项目概述29 1.9.2设计原则29 1.9.3总体目标30 1.9.4设计依据30 1.9.5机房视频监控规划31 1.10环境集中监控系统33 1.10.1概述33 1.10.2设备监控分析33 1.10.3机房动环设备集中监控平台一套35

公共机构绿色数据中心建设指南

公共机构绿色数据中心建设指南 1 范围 本标准规定了公共机构绿色数据中心建设的基本要求和数据中心机房物理环境、不间断电源系统、供配电系统、空调系统、建筑装修、综合监控系统、限用物质限量等方面的要求。 本标准适用适用于公共机构的各类数据中心的新建、改建和扩建工程,其他各类数据中心亦可参照执行。 2 规范性引用文件 下列文件对于本文件的应用是必不可少的。凡是注日期的引用文件,仅注日期的版本适用于本文件。凡是不注日期的引用文件,其最新版本(包括所有的修改单)适用于本文件。 计算机场地通用规范 建筑材料及制品燃烧性能分级 防火门验收规范 电磁兼容限值谐波电流发射限值 信息技术用户建筑群的通用布缆 电子电气产品中限用物质的限量要求 防静电活动地板通用规范 数据中心资源利用第部分:电能能效要求和测量方法 建筑设计防火规范 供配电系统设计规范 火灾自动报警系统设计规范 机械防盗锁 3 术语和定义 下列术语和定义适用于本文件。 3.1 数据中心 由计算机场地(机房),其他基础设施、信息系统软硬件、信息资源(数据)和人员以及相应的规章制度组成的实体。 [ ,定义。] 3.2 绿色数据中心 全生存期内,在确保信息系统及其支撑设备安全、稳定、可靠运行的条件下,能取得较大的能源效率和较小的环境影响的数据中心。 3.3

公共机构 全部或者部分使用财政性资金的国家机关、事业单位和团体组织。 3.4 主机房 主要用于电子信息处理、存储、交换和传输设备的安装和运行的空间。包括服务器机房、网络机房、存储机房等功能区域。 3.5 辅助区 用于电子信息设备和软件的安装、调试、维护、运行监控和管理的场所,包括进线间、测试机房、总控中心、消防和安防控制室、拆包区、备件库、打印室、维修室等区域。 3.6 支持区 为主机房、辅助区提供动力支持和安全保障的区域,包括变配电室、柴油发电机房、电池室、空调机房、动力站房、不间断电源系统用房、消防设施用房等。 3.7 行政管理区 用于日常行政管理及客户对托管设备进行管理的场所,包括办公室、门厅、值班室、盥洗室、更衣间和用户工作室等。 3.8 灾备机房 用于灾难发生时,接替生产系统运行,进行数据处理和支持关键业务功能继续运作的场所,包括限制区、普通区和专用区。 3.9 自然冷却 利用非通过主动制冷的自然界的冷源来实现冷却的制冷技术。 3.10 不间断电源系统 在市电断电或发生异常等电网故障时,不间断地为用户设备提供电能的一种能量转换装置。 [ ,定义。]

高效数据中心的六大绿色节能措施

高效数据中心的六大绿色节能措施 和一两年前相比,很多数据中心的运营者们如今也并未热衷于“绿色”这个词。这当然不是说他们已经抛弃了旨在提升能源效率,更好地利用IT资源的各种项目,因为这些项目既可以削减运营成本,又能减少对环境的影响。 市场咨询公司451集团在考察了被大批组织和机构所接受的可降低数据中心运营成本的六种绿色实践之后,发布了一份内容全面的报告:《高效节能的数据中心实践》。其中的一些实践做法,如进行数据中心的全面规划,寻找可替代传统制冷系统的方案等可能早已被大家所熟知;其他做法,如采用直流供电和预制件数据中心等,则很少有人谈及,或者被认为不可持续而不予理会。 在计划升级其设施时,数据中心的运营者们应该好好考虑或者重新考虑一下这些趋势。当然,并非所有这些实践都适合每一个组织,但如果你不去看看,那你就有可能永远都不知道有这些实践做法存在。 实践1:采取综合的可提升整体效率的方法 数据中心运营者需要通过结合了集成技术和各种手段全面处理效率问题的方法,而不能孤立地去对待每个项目。这其实并不是什么开创性的概念:绿色网格组织从2008年成立以来就一直在提“通盘考虑”的口号。而这样做的最大好处之一就是可以促进各部门间,尤其是设施部门和IT 部门间的协同,确保所有的参与者在对数据中心进行升级改造时能够意见一致。举例来说,IT 部门订购了一个用于关键任务项目的高端服务器机柜,那么他只需要在机柜到达数据中心时打听一下是否有足够的电力或冷却能力支持这个机柜便可。 组织内的协作并未到此结束。为了努力减少能源浪费,很多企业部门之间如今已越来越开放,曾经是各部门最隐秘的东西也可以公开。这方面最有名的例子就是Facebook,利用其开放计算项目,该公司有关高效服务器、机柜和冷却设备的蓝图也都在开源。 实践2:更智能的冷却系统 数据中心运营者们正逐渐意识到,数据中心设施并非存放肉类的大冰柜,只需要适当制冷即可。虽说IT管理人员不希望设备因过热而失灵。但如果你花在IT上的每个美元都得分出50美分用于制冷的话——这正是很多传统数据中心的平均PUE比值——那几乎可以肯定你是在烧钱。 有好多种办法可以降低冷却成本,其中一些技术始终不被企业所接受,生怕会毁掉他们的宝贵硬件。这其中就包括液体冷却技术,该技术被认为会产生很多维护方面的问题,而且使用范围有限。但是来自绿色革命冷却公司的一种液体冷却方法采用了低成本、无污染的绝缘液体,据称其吸热能力是空气的1200倍。 至于空气冷却这种免费冷却方法则要比液体冷却更受欢迎。这个概念也很简单:只要把数据

数据中心节能方案

数据中心的制冷系统节能方案 对于数据中心,制冷系统通常按照其满负载,高室外温度的最恶劣情况进行设计。当数据中心负载较少且室外凉爽时,系统必须降低功率以减少向数据中心供冷。然而,制冷机组的各种装置在这种情况下利用相当不充分并且工作效率极低。为了提高在这种情况下的工作效率,制冷装置经过改进,配置了变频调速驱动、分级控制或者其他功能。但是,仍然非常耗能。于是,工程师开始利用他们的知识与智慧,想法设法降低数据中心电力消耗,由此节能冷却模式应运而生。今天,我们就对数据中心的几种节能冷却模式进行一下总结。 做过数据中心的暖通工程师在听到节能冷却模式的时候,首先想到的应该就是“风侧节能冷却”和“水侧节能冷却”,这两个术语常被用来形容包含节能制冷模式的制冷系统。本期重点讨论风侧节能冷却模式。 1.直接风侧节能冷却模式 当室外空气条件在设定值范围内时,直接风侧节能冷却模式利用风机和百叶从室外经过过滤器抽取冷风直接送入数据中心。百叶和风阀可以控制热风排到室外的风量以及与数据中心送风的混合风量以保持环境设定温度。在与蒸发辅助一起使用时,室外空气在进入数据中心前需要先穿过潮湿的网状介质,在一些干燥地区,蒸发辅助可以使温度降低高达十几摄氏度,充分延长节能冷却模式的可用时间。

需要注意的是,这种类型的节能冷却模式在结合蒸发辅助使用时会增加数据中心的湿度,因为直接送入数据中心的新风会先经过蒸发环节。所以蒸发辅助在干燥气候环境下优势最大。如果是较为潮湿的天气环境,则应结合投资回报率评估是否使用蒸发辅助,因此所额外消耗掉的能源可能会抵消节能冷却模式所节能的能源,得不偿失。另外,此种的节能模式尽管送风已经经过过滤,但是并不能完全消除微粒,比如防止烟雾和化学气体,进入数据中心。 2.间接风侧节能冷却模式 当室外空气条件在设定值范围内时,间接风侧节能冷却模式利用室外空气间接为数据中心制冷。板换热交换器、热轮换热器和热管是三种常见的隔离技术,可隔离室外湿度的影响并防止室外污染物进入IT 空间。在这三种技术中,板换热交换器在数据中心中的应用最为普遍。 基于空气热交换器的间接节能冷却方法使用风机将室外冷风吹到一组板换或盘管上面,冷却穿过板换或盘管的数据中心内的热空气,将数据中心内的空气与室外空气完全隔离。这种类型的节能冷却模式也可以与蒸发辅助结合使用,向板换或盘管的外表面喷水以便进一步降低室外空气的温度,从而冷却数据中心内的热回风。与直接新风节能冷却模式不同,蒸发辅助不会增加IT 空间内的湿度,但需要补充少量新风。

新一代绿色数据中心设计及新技术研究

新一代绿色数据中心设计及新技术研究 王东伟 (上海延华智能科技集团股份有限公司,上海 200060) 摘 要:通过对下一代绿色数据中心发展趋势、绿色指标和适用技术的研究,从六层体系架构逐一对构造绿色数据中心的关键技术等设计要素进行了分析,提供了绿色数据中心建设的一种途径和方法。 关键词:数据中心;绿色;设计;新技术 1 新一代数据中心建设挑战 随着云计算为核心的第四次信息技术革命的迅猛发展,信息资源已成为与能源和材料并列的人类三大要素之一。作为信息资源集散的数据中心的建设正在发展成为一个具有战略重要性的新兴产业,成为新一代信息产业的重要组成部分和未来3-5年全球角逐的焦点。数据中心不仅是抢占云计算时代话语权的保证,同时也是保障信息、安全、可控和可管的关键所在,数据中心发展政策和布局建设已上升到国家战略层面。 纵观新趋势下数据中心的建设极具挑战性,呈现出规模化整合、绿色环保节能、高密度和高容量、负载动态自适应、可视和高度自动化的特点,可以概括为以下四点:其一,建设运维模式向一体化方式转变。传统的数据中心的建设包括需求的评估,设计、土建和系统的部署等。而现在模块式数据中心,一体化的解决方案使建设模式走向简约化。 其二,数据中心的IT基础设施,正在加速云化或池化,从网络资源、存储资源到计算资源对用户来说都是透明的,符合虚拟化管理、一体化解决方案的趋势。 其三,数据中心绿色和节能技术的采用。由于数据中心规模、资源虚拟化和海量数据集中化,IT设备本身和机房设备的高耗能,在绿色、节能、环保和降低运营成本等方面都有量化要求。 其四,数据中心的运维的管理,正趋于自动化的方式。由于业务创新和IT复杂度不断的提升,出现了大量第三方的服务商和基于数据中心管理的系统软件产品。 国内目前还没有关于绿色数据中心的建设以及能耗管理的标准,政府和国内相关部门领正在制订符合我国国情的行业指导意见和规范。本文结合目前已建和在建工程以及

APC-如何确定数据中心的节能减排目标

PUE
设立切合实际的期望值
理解 理解PUE PUE的测量,分析工具和流程 提升PUE最佳方法
Victor Avelar先生 施耐德电气美国电力转换公司 高级 究分析师 高级研究分析师 Steven Carlini先生 施耐德电气美国电力转换公司 部高级总监
? 2009 APC by Schneider Electric
数据中心科学中心
数据中心全球解决方案

PUE赛马
典型的数据中心
极端的PUE目标
信息来源 …
● Google 1.12 ● 微软“数据实验室” 1.24 ● 微软第4代数据中心(PUE目标) 1.12 1 12 ● 大型数据中心的 1.08 高级设计师 1 06 1.06
1.046
PUE 报告 …
就是我们 要做的!
让我们看看他们是怎样实现的….
? 2009 APC by Schneider Electric

5个关键的PUE概念
什么是PUE合适的期望?
1● 它可以通过合理的方式和标准公式计算获得 2● PUE的 比较是困难的
有效的PUE比较是严格依赖于共同的术语和假设来进行的
● PUE 以数学为基础
PUE应该包含大楼基础系统中被数据中心使用的部分 3● 真正的 大楼共用的这部分经常被忽略,而这些是需要公平的分配到数据中心运行中去。 冗余使PUE变得更糟 4● 冗余电源和制冷系统能降低 余电源和制冷系统能降低PUE,因为冗余造成负载率降低。 因为 余造成负载率降低
5
● 你的电费账单和效率(PUE)不是一回事
两者是反比例关系,你可以合理的做出设计上的决定 两者是 例关系 你 做 设计 决定
公平比较 不要忽视隐含的电气损失 公平比较,不要忽视隐含的电气损失
? 2009 APC by Schneider Electric

数据中心八大节能八个步骤

数据中心八大节能八个步骤 现有的节能技术大都没有顾及电力需求增长的主要因素,只考虑如何降低整体能耗成本。企业为数据中心节省能源同时提高效率,其实还有更有效的办法。只要实现高效存储数据,减少机器及磁盘数量,就能解决急速增长的能源消耗问题。这个策略不仅可以减少系统的复杂性,降低成本,还可以改善网络效率和性能表现,从而对新的业务需求能做出更好的反应。 1. 整合服务器和存储系统 服务器本身已消耗了数据中心的一半能源,而存储系统是另一大能源消耗者。事实上,窗口数据的大幅增长,导致了窗口档案服务器和直接附加存储系统的数目急增。因此,只需设立一个存储网络,整合服务器和存储系统,减少设备数量,数据中心的可用能源就能迅速增加,从而提高能源效益。 2. 选用高容量磁盘驱动器 典型的SATA磁盘驱动器,与相同容量的光纤通道(Fibre Channel) 磁盘驱动器相比,可以节省大约一半的能源。同时,它们可以提供最高的磁盘驱动器可用存储密度,进一步降低能源消耗。一些具有磁盘修复及数据保护技术的SATA磁盘正日趋流行,成为很多企业应用的理想选择。 3. 减少磁盘驱动器数量,防止磁盘故障 SATA磁盘驱动器的数据存储量比光纤通道主磁盘驱动器多,但我们不能因此而忽略了数据可靠性。当前流行的双区间(Dual-parity) RAID-DP,能够提供更高的存储利用率和错误容忍度,可同时修复两个故障磁盘驱动器的数据。 4. 将数据转移到更高效的存储系统 为确保最有效地使用存储资源,可以把数据转移到次存储系统以减低主存储的负荷。一个完善的信息服务器能自动把存取率较低的数据,自动由主存储器转移到存储效益较高的次存储系统去。 5. 提高利用率 据业内估计,存储利用率只有25%-40%,即大约有60%-75% 的存储容量还没有被使用,却在不停地消耗能源。市场上有些方案能有效解决这个问题,通过共享存储,让所有磁盘都可以存取数据,平均存储利用率可高达60%。 6. 单方案多应用 只要掌握了数据备份的窍门,就能大幅节省存储空间。第一,只存储变更的数据。第二,用数据备份实现多个不同应用,以降低对特定存储系统的依赖,同时将后备系统用于验证及异步灾难恢复,减少特定存储系统的数量,节省更多能源。第三,重复数据删除技术(Deduplication) 可以避免对存储于主磁盘阵列的多余数据进行重复备份,缓解增加次存储容量的需求。

绿色数据中心规划设计说明书

绿色数据中心规划设计 随着近年来网络及信息化建设的不断深入和发展,各种IT设备不断增加,做为IT基础设施的数据中心机房正在承受着越来越大的压力,供电、制冷、承重、消防、网络布线、备份和管理运维等方面问题不断出现,很多原有数据中心机房无法满足需要,新一代的绿色数据中心机房已经成为近年来很多单位信息化建设中的重点任务。 新一代绿色数据中心的建设的过程中,通过虚拟化资源整合、自动化管理以及能源管理等新技术的采用,消除传统服务器资源或存储资源之间的壁垒,将物理资源整合为可统一管理的资源池,通过标准化、模块化,松耦合的模式构建虚拟化云计算数据中心,使得系统得以水平无缝扩展,使用户可以按业务需求优化配置基础设施的资源使用,实现节约资源,优化计算资源使用效率,缓解或解决目前数据中心普遍存在的资源(含机柜资源、机房空间、电力资源、制冷资源,人力资源等)浪费严重的问题。但必须注意到,建设一个或者致力于管理一个绿色数据中心的过程中,只是在局部采用绿色技术,而没有一个绿色的、整体的规划,实现数据中心的整体绿色目标还是不够的,至少是不完整的。我们还需要一个整体的绿色架构规划,并在数据中心建设的不同阶段,设计相应的架构视图,确定数据中心整体的技术目标、技术方向和选项原则等,整体架构需要涵盖从数据中心选址、建筑设计甚至建材选择的过程,数据中心的电源系统设计、制冷系统

设计、布线系统设计、消防系统设计等多个方面,都要纳入整体绿色架构的设计体系。 绿色数据中心关键效率和环境特点的度量标准进行简单描述,在规划、设计数据中心的过程中可以考虑应用这些标准。 1、电源使用效率PUE 电源使用效率应该是目前在数据中心度量标准中使用最为广泛的指标,其含义就是通过关注服务器的用电成本,策略服务器环境的用电效率,追溯下该指标的由来,其实是在2006年,美国绿色网格联盟的成员建立了电源使用效率公式: 电源使用效率(PUE)=机房总用电量/IT设备用电量 解释下: IT设备用电量包括了服务器、网络、存储和外围设备及所有在数据中心用于数据计算和处理的设备; 机房总用电量包括IT设备的用电量加上所有与数据中心有关的主要配电系统、空调、制冷、以及其他所有基础设备的用电量。 PUE的值越低,表明其电源使用效率越高。完美的电源使用效率值是1.0 (这是不可能地) 这里需要注意的是:PUE的值实际上即使在一天内,都是动态变化的,随着服务器的计算负荷,外部环境温湿度升降,都会对PUE的值产生影响。 2、数据中心基础架构效率 DCIE

数据中心机房的基本节能减排工作

数据中心基础设施的可用性问题,最初是由IT厂商提出的,如IBM提出的“随需应 变”(OnDemand)、HP提出的“动成长企业”(AdaptiveEnterprise)等概念,它们都推崇“逐步升级”的扩展模式,来替代“一步到位”的建设模式。全球经济环境变化的加剧,正是用户对可扩展性的要求逐渐提高的根本推动动因。 数据中心由两个层面组成——IT层面和机房设施层面。机房设施的扩展性需求,是IT 层面的扩展性对运行环境的灵活性的诉求。与IT层面的扩展性相比,机房设施的可扩展性实现起来更困难一些,就好比前者是家具,后者是房间。 机房设施的扩展方式,或称扩容方式,从目前国内的情况看,“一步到位”的方式与“逐步升级”的方式,都因用户需求各异而共存着。实际上,这两种方式确实各有千秋。从机房设施的工程实践上看,前者易、后者难;从投资风险上看,前者大、后者小;从投资、运营的过程和管理上看,前者简便、后者繁琐。所以,对于业务相对稳定的企业用户,更愿意选择前者;而业务发展迅速或市场风险高的企业,则更愿意选择后者,即对机房设施的可扩展性要求高,希望“随需应变”。 用户对机房设施“随需应变”的要求,对机房的规划、设计、设备选型、运行维护等四个环节及电源、空气调节、防雷、机柜、监控等五个子系统(有时将防雷纳入电源子系统)提出了挑战。 一、规划 在规划环节,首先需要在数据中心机房选址问题上考虑扩展性的要求,包括对面积、楼层位置、楼层净高、地面载荷等方面的要求。 如果决定采用单一房间,显然要考虑未来扩容时的IT设备及机房设备的面积需求;另外可行的方案是,扩容时占用其他房间——在这种情况下,需要同时对欲占用的房间进行同样的结构评估,包括楼层位置、楼层净高与承重。 楼层位置主要影响空调室外机房的放置问题。一般情况下,空调室外机与机房的垂直距离不宜超过15米,所以机房的选址楼层多选在距离楼顶、底层或设备层较近的楼层,并在楼顶、底层或设备层中预留足够的空间,以备未来机房空调系统扩容时,安装空调室外机。 如果未来扩容时计划不扩大机房面积,而是增大机房内的设备密度(或机架数量),则必须考虑未来的设备重量与机房地板承重。 二、设备选型 设备选型环节应考虑的问题很多,以下分为子系统来讨论。 1、供电子系统 从供电子系统来看,需要考虑包括UPS、供电线路、配电线路等在内的整体的可扩展性。

浅谈现代数据中心绿色节能的策略

浅谈现代数据中心绿色节能的策略与手 数据中心守护着企业重要IT设备的运行,如服务器、网络设备以及存储设备等,在数据中心支持全球数十亿人口上网的同时,也产生大量的机房能耗,因此,势必要研究具体的机房能效改善对策,才能真正实现节能。对于当前的数据中心管理者来说,必须采用高效率的机房经营方针,才能取得“环保”及“经济”双赢的好处。 提升数据中心能源效率的第一步,便是审慎评估能源使用效率(PUE, Power Usage Effectiveness),简单来说,PUE就是数据中心总耗电除以IT设备总耗电,或是数据中心总设施消耗的能源除以IT设备消耗的能源。PUE是由Green Grid所召集的政府及产业专家组成的项目小组所制定的一项指标,不仅信赖度高,而且可以用来检验机房的能源效率,可以广为适用于一般数据中心,目的是建立一个“一致且可重复使用的衡量指标”,提供数据中心管理者持续监控并改善能耗状况。根据Uptime Institute于2014年进行的调查研究显示,全球业界平均PUE为1.7,高于2013年的1.67,但低于2012年的1.8,表示机房节能仍有改善空间(如图1)。 图1:数据中心平均PUE调查, 2011-2014 (数据来源:2014 数据中心产业调查报告--Uptime Institute) 受到近年来大数据、物联网浪潮的推动,各地的机房建设持续进行,同时,在环保意识高涨的氛围下,“机房节能”也成为了一门新的研究领域。从客观事实来看,首先,数据中心的电力支出占总持有成本(TCO, Total Cost of Ownership)的一大部分,仅次于人力成本;其次,数据中心常背负着“不环保”的恶名。然而,实际上,以美国为例,数据中心仅消耗了总能源的百分之二,且低于全世界平均值,可见仍有许多机房采用节能手段达到节能减排的目标。截至目前为止,仍有许多数据中心尚未采用任何效率指标,导致数据中心的节能毫无标准可循。虽然PUE仍存有许多争议,但是PUE值仍是衡量数据中心基础设施效率的主要指导方针,而且对于拟定及执行数据中心的绿色节能策略也很有参考价值。 二、数据中心绿色节能策略 根据《自然气候变化(Nature Climate Change)》发表的一篇论文《低碳数据中心的特征》表示,IT设备如:服务器、存储设备、通讯技术、基础设施(风扇、冷却、水泵、配电等),其本身的效率以及碳排放,是影响数据中心产生温室气体的主要因素。这篇论文提出建议,如果专注于能耗改善的部分,将可对数据中心的绿色节能计划产生显著的影响。 以下列举七大数据中心的绿色节能策略,将有助于改善数据中心能耗,并优化PUE。

互联网数据中心机房建筑设计探讨

互联网数据中心机房建筑设计探讨 互联网数据中心机房建筑设计探讨 摘要:本文根据互联网数据中心(IDC)机房发展现状及其自身特点,在平面、剖面、节能建筑设计方面做了介绍,对产生的问题进行了分析,并在满足需求的条件下进行优化设计,利于提高机房利用率、节省投资及节能减排。 关键词:互联网数据中心;IDC机房;机架布置;机房布局;节能 中图分类号: TU2 文献标识码: A 文章编号: 概述 互联网数据中心(Internet Data Center)简称IDC,是基于Internet网络,为集中式收集、存储、处理和发送数据的设备提供运行维护的设施基地并提供相关的服务[1]。互联网数据中心是各种互联网应用与服务的核心,在网络经济和电信产业链中起着十分重要的作用。现代数据中心更是具备四个较为重要的特点,分别是:高密度、智能化管理、绿色环保、业务连续性。 IDC机房是一种大型数据储存中心机房,一般提供服务包括网络基本服务,如主机代管、虚拟主机、主机出租、异地备援、企业专线等;另有加值服务,包括网络管理与监控、防火墙、实体的消防设施与安全门禁控管等。 互联网的普及与应用得到了长足的发展,深入到各行各业,千家万户,各大通信运营商对IDC机房的建设正紧锣密鼓地展开着,其建设的好坏将直接影响到互联网业的发展。机房利用率,机房与各个设备用房的配置关系及机房节能一直是业内讨论的问题,本文就这些问题在建筑设计方面提出几点看法,供同行进行探讨。 互联网数据中心机房建筑设计及其分析 1.1机房组成分析 通信设备:机架

配套设备:电力电池、机房空调、变配电、备用发电机、水泵 辅助设备:各类管线、电缆 IDC机房的核心内容就是通信设备,它由各种功能的机架组成。机架的正常工作需要特定的环境条件,包括充沛的电力保障以及一定的温度、湿度、空气洁净度等要求,所有其它设备及设施均服务于通信设备,其之间需进行合理的分配及布局,使通信设备的工作效率最大化。 1.2机房平面设计 机房平面布置主要根据机架的排列方式进行;机架的排列方式根据其功率及空调制冷效果的优劣而改变,同时根据柱网的大小选择合理的机架布置方式;每个机房的最大面积受气体消防保护区的限制;机房大小又决定机架的排列方式及空调形式的选择。所以,机房平面排布受到多重因素的影响,其之间又相互制约。 机柜间距与空调的关系 不同类型的机架有着不同的功率,不同功率的机架其发热量是不同的。因此,各类机架需根据空调所能提供的温湿度条件进行布置。 比如,在机柜尺寸相同的条件下,4KW机架区,根据机架发热量计算,机柜间距为1200mm时能满足空调制冷需求;10KW机架区,根据机架发热量计算,机柜间距达到2400mm时能满足空调制冷需求。因此,机架发热量与空调制冷效果决定机柜间距。 机架布置与柱网的关系 柱网大小对机架排布有着较大的影响。就4KW机架区而言,在尽可能多排机架及满足空调制冷需求的前提下,不同尺寸的柱网其机架摆放效率是不同的(图1、图2)。由图可见,在机柜间距相同的条件下,8400mm柱网的局部结构柱占用了机架间的人行通道,机架布置效率降低;而7200mm柱网对4KW机架来说布置较顺,显然更为合理。故应根据不同功率的机架及其机柜间距选择适合的柱网,使机架布置效率更高。 图17200mm柱网布置图图28400mm柱网布置图 机架布置与气消保护区大小的关系

数据中心机房节能简析

数据中心机房节能简析 贾骏 吕捷 王众彪 工业和信息化部电信研究院 邮电工业产品质量监督检验中心 摘要:本文阐述了数据中心机房的主要能耗分布情况,并从数据设备、电源系统、空调系统、机房气流组织几个方面介绍了机房降耗的主要方式。 关键词:数据中心 UPS 气流组织 1、数据中心机房概述 数据中心是为集中式收集、存储、处理和发送数据的设备提供运行维护的设施以及相关的服务体系。数据中心提供的主要业务包括主机托管、资源出租、系统维护、管理服务,以及其他支撑、运行服务等。 本文所提到的数据中心机房,是指承载数据中心业务的基础设施,一般由核心业务机房、UPS机房、电池室、空调机房、柴油发电机房等构成。 我国数据中心市场发展迅速,根据赛迪顾问年度报告,2010年中国IDC市场规模达到102.2亿元。我国2005年以来数据中心市场发展的趋势如图1所示。 图1 我国IDC市场发展趋势 2、数据中心机房能耗分布 2010年我国数据中心资源投入占总投入将近30%,维护成本占总投入近15%。[1]2010年我国数据中心运营成本分布如图2所示。

图2 2010年中国IDC公司最高运营成本分析 数据中心机房能耗主要分为服务器/网络设备能耗、制冷能耗、供电系统能耗、照明和其他能耗。根据EYP Mission Critical Facilities所提供的数据,50%的数据中心用电量是被服务器/网络设备所消耗。制冷系统是数据中心内第二大能耗系统,其耗电量占数据中心总耗电量的37%。供电系统占10%,照明和其他占3%。[2] 3、数据设备降耗 数据设备是承载数据中心的业务核心设备,同时也是耗电量所占比例最大的设备。根据亚马逊JamesHamilton的研究,数据中心服务器硬件所消耗的电力的费用约占57%。针对不同规模的数据中心,该费用比例是不同的。2010年我国数据中心规模分布如图3所示。 图3 2010年中国IDC公司的机房服务器数量 服务器是数据中心最为常见的设备。使用高效低能耗的服务器是数据设备降耗的关键所在。Standard Performance Evaluation Corporation(SPEC) 是一个全球性的、权威的第三方应用性能测试组织,它制定了一系列的规范来评定服务器应用性能。可以根据SPEC的测试值评定服务器的效能/能耗,以此作为选购服务器的参考。另一个评定标准是能源之星的服务器标准,符合能源之星标准的服务器要比旧式服务器多出30%的能源效率。 对于网络设备,可以使用TEEER值以及ECR/EER性能能耗比评估法进行节能分析。 4、电源系统降耗

绿色数据中心空调系统设计方案

绿色数据中心空调系统设计方案 北京中普瑞讯信息技术有限公司(以下简称中普瑞讯),是成立于北京中关村科技园区的一家高新技术企业,汇集了多名在硅谷工作过的专家,率先将机房制冷先进的氟泵热管空调系统引进到中国。 氟泵热管空调系统技术方案适用于各种IDC机房,通信机房核心网设备,核心机房PI路由器等大功率机架;中普瑞讯对原有的产品做了优化和改良,提高节能效率的同时大大降低成本。 中普瑞讯目前拥有实用专有技术4项、发明专有技术2项;北京市高新技术企业;合肥通用所、泰尔实验室检测报告;中国移动“绿色行动计划”节能创新合作伙伴,拥有国家高新企业资质。 中普瑞讯的氟泵热管空调系统技术融合了结构简单、安装维护便捷、高效安全、不受机房限制等诸多优点,目前已在多个电信机房得到实地应用,取得广大用户一致认可,并获得相关通信部门的多次嘉奖。 中普瑞讯的ZP-RAS氟泵热管背板空调系统专门用于解决IDC高热密度机房散热问题,降低机房PUE值,该系统为采用标准化设计的新型机房节能产品,由以下三部分组成。

第一部分,室内部分,ZP-RAS-BAG热管背板空调。 第二部分,室外部分,ZP-RAS-RDU制冷分配单元。 第三部分,数据机房环境与能效监控平台。 中普瑞讯的ZP-RAS氟泵热管背板空调体统工作原理:室外制冷分配单元(RDU)机组通过与系统冷凝器(风冷、水冷)完成热交换后,RDU通过氟泵将冷却后的液体冷媒送入机房热管背板空调(BGA)。 冷媒(氟利昂)在冷热温差作用下通过相变实现冷热交换,冷却服务器排风,将冷量送入机柜,同时冷媒受热汽化,把热量带到RDU,由室外制冷分配单元(RDU)与冷凝器换热冷却,完成制冷循环。 1.室外制冷分配单元(RDU)分为风冷型和水冷型两种。制冷分配单元可以灵活选择安装在室内或室外。室外RDU可以充分利用自然冷源自动切换工作模式,当室外温度低于一定温度时,可以利用氟泵制冷,这时压缩机不运行,充分利用自然免费冷源制冷,降低系统能耗,同时提高压缩机使用寿命。 北方地区以北京为例每年可利用自然冷源制冷的时间占全年一半以上左右。从而大大降低了机房整体PUE值,机房PUE值可控制在较低的数值。 2.热管背板空调(ZP-RAS-BGA)是一种新型空调末端系统,是利用分离式热管原理将空调室内机设计成机柜背板模

数据中心设计过程详解

数据中心设计过程详解 艺术的唯美和技术的务实,似乎有着天然的距离。但当我们回顾很多技术的发展历程,就会发现,在那些取得了巅峰成就的地方,总是技术与艺术的完美结合。今天我们就一起深入了解最新的IDC机房基础设施的设计和搭建——只要用心,技术离艺术并不遥远…… 历史回顾 过去十年中,IDC机房的规模多为300-500平米,一般设在办公楼内,其建设多以应用为中心,靠应用来拉动。 现实需求和挑战 IDC机房建设发展到现在,为加强IDC机房的管理,提高其效率,安全性和可靠性,大型、超大型IDC机房的建设需求逐渐增多。而过去IDC机房的设计、建设模式已经不再适应这种发展需求了。 目前,大型IDC机房建设面临的主要挑战有: 1:设计标准落后,基础研究空白,缺乏统计数据。 国内的相关设计,建设标准是93年的,和现实需求相比过于陈旧,最新的规范尚在推广当中。用于指导电信行业的TIA-942规范并不一定对所有用户适用。 2:IDC机房所要支持的业务系统的要求,企业IT架构设计与具体的基础设施设计严重脱节。 3:设计、建造过多依靠经验,缺乏科学的方法和工具。 现有机房工程公司已难以支持,而国内的专业建筑设计院过去很少接触IDC机房设计。 4:技术经济指标,节能措施缺乏计算和考虑,效率低下。 5:缺乏专业的工程管理。 6:设计、建设、运维各个阶段脱节。 IDC机房是专业性很强的工业建筑,运维方式直接对建筑设计提出要求,而运维方式又是由IDC机房所承载的业务类型,模式所决定的,所以各个环节要全面规划。 设计IDC机房时需完全遵守现有国家标准,并广泛参考国际标准,最佳实践经验以及Gartner Infrastructure Maturity Mode。 现在企业做IDC机房建设大部分都处于集中式阶段,部分企业由集中式向标准化走。长远上看,IDC机房基本上要往基于服务,虚拟化方向发展。

绿色数据中心建设规范

绿色数据中心建设规范Green IDC Technical Specification

目录 前言.................................................................................. I 绿色IDC技术规范. (1) 1总则 (1) 2规范性引用文件 (1) 3缩略语 (3) 4数据中心建筑节能 (3) 4.1数据中心的选址 (3) 4.2机房楼建筑布局要求 (3) 4.3建筑节能设计的一般原则 (4) 4.4围护结构及其材料节能要求 (4) 5机房规划与布局 (6) 5.1机房分区 (6) 5.2机房布局规划原则 (6) 5.3数据中心机房设备布局 (7) 6 IT及网络通信系统节能 (7) 6.1 IT与CT设备选型 (7) 6.2 IT与CT设备使用 (9) 6.3 IT及CT设备的部署与维护 (9) 7机房专用空调系统节能 (10) 7.1空调系统选择原则 (10) 7.2空调设备选型 (11) 7.3空调系统配置原则 (12) 7.4空调系统节能 (12)

8供电系统节能技术要求 (14) 8.1设备选型 (14) 8.2优化供电系统 (14) 8.3无功补偿优化 (15) 8.4系统谐波治理 (16) 8.5模块化供电节能 (17) 8.6节能灯具选用 (18) 9数据中心管理节能要求 (19) 9.1 IT及网络设施节能管理 (19) 9.2基础设施节能管理 (20) 附录 (21) 附录A:本规范用词说明(规范性附录) (21) 附录B:编制说明(资料性附录) (22) 1绿色数据中心提出背景 (22) 2数据中心能耗构成 (23) 3数据中心机房的“电能利用率”(PUE) (25) 4数据中心节能的基本原则 (26) 附录C:条文说明(规范性附录) (28) 5总则 (28) 6规范性引用文件 (28) 7缩略语 (28) 8数据中心机房建筑节能要求 (28)

节能减排技术在数据中心的应用研究

节能减排技术在数据中心的应用研究 字号:小大2012-03-19 09:54来源:IT商业新闻网我要评论(2) 随着信息全球化,在全世界范围内数据中心被大量建立,数据中心的能耗及所产生环境问题成为人们关心的重点。据报告,一个典型数据中心所需要能量可供3万个家庭使用。最近就有人指责,在google中每进行两次搜索就会生产15克二氧化碳,所消耗能量大约与烧开一壶水能量相当,但据google称,每做一次搜索会产生0.2克的二氧化碳。从数据调查情况来看,从2006到2007年数据中心能耗增长了超过13%,其费用支出从2000年以来增加了一倍,预计到2012将达到40万亿。 随着全球气候变化,人们越来越重视对环境的保护,对各种产品(汽车、空调、冰箱等)的能耗标准都有明确要求,但数据中心能耗标准还没有制定,企业只是感觉到数据中心所消耗电能越来越多,维护数据中心成本在增加。随着2008年全球出现金融危机,许多企业都在大幅度压缩成本和减少开支,与此形成随着全球气候变化,人们越来越重视对环境的保护,对各种产品(汽车、空调、冰箱等)的能耗标准都有明确要求,但数据中心能耗标准还没有制定,企业只是感觉到数据中心所消耗电能越来越多,维护数据中心成本在增加。随着2008年全球出现金融危机,许多企业都在大幅度压缩成本和减少开支,与此形成鲜明对比的是数据中心海量的数据增长速度对存储、能耗提出了要求。如何实现数据中心节能降耗成为企业、厂商共同目标,许多厂商都把节能产品作为销售产品时的一个亮点,企业则将节能降耗作为降低成本和树立企业形象重要内容。厂商、企业要实现节能降耗不仅依靠技术的创新,更需要用户优化数据中心设计。因此设计、建造并启用高性能、低能耗的数据中心已成为一项重要工作。 1、基础设施的节能降耗问题 据统计,大多数数据中心超过50%的电力资源被UPS、空调等机房基础设施消耗。剩余能源才被服务器、存储、网络等IT设备消耗。目前,国际上采用PUE通行的指标来衡量数据中心的电力使用率PUE=数据中心的总功耗/IT设备的总功耗。国外先进机房的PUE值可以达到1.7,而我国数据中心的PUE的平均值在2.5以上。 降低PUE值,必须在IT设备总量不变的情况下,降低空调、UPS等基础设施的电力消耗。 (1)降低数据中心的制冷能耗 降低制冷能耗是减少数据中心总能耗的关键,由于传统的数据中心没有根据空气动力学来设计通风系统,通常出现局部温度过高,空调制冷并未达到预期的目的,不仅能耗上有损失,且温度控制效果不理想。随着局部温度的升高,IT硬件的可靠性大幅降低,据估计,温度每升高10℃,电子设备的长期可靠性降低50%.通常的做法是,调低数据中心机房空调

基于绿色数据中心节能建设分析

基于绿色数据中心节能建设分析 发表时间:2016-11-09T15:21:54.870Z 来源:《基层建设》2016年16期作者:刘宝新 [导读] 摘要:绿色数据中心是指运用虚拟化、云计算、节能等新技术,实现最大化的能源效率和最小化的环境影响,满足数据中心安全标准,并具有自我管理能力的智能数据中心。绿色数据中心应具备可视、可控、可管理的特征,能实现数据中心故障的快速恢复和数据动态迁移。同时,智能化技术的应用减少了人工干预,避免了人为误操作,提高了系统的安全性和可靠性。本文针对绿色数据中心节能建设进行了探析。 北京国信网通科技有限公司北京市 100085 摘要:绿色数据中心是指运用虚拟化、云计算、节能等新技术,实现最大化的能源效率和最小化的环境影响,满足数据中心安全标准,并具有自我管理能力的智能数据中心。绿色数据中心应具备可视、可控、可管理的特征,能实现数据中心故障的快速恢复和数据动态迁移。同时,智能化技术的应用减少了人工干预,避免了人为误操作,提高了系统的安全性和可靠性。本文针对绿色数据中心节能建设进行了探析。 关键词:绿色;数据中心;节能建设 1绿色数据中心节能指标分析 目前,衡量数据中心是否绿色的主要量化指标是采用绿色网格组织(GreenGrid)制定的能效比指标,又称为PUE(PowerUsageEfficiency)。 PUE=[TotalFacilityοfPower(设备总能耗)ITEquipmentPower(IT设备总能耗)×100%]=1+[空调能耗IT设备能耗]+[通风能耗IT设备能耗]+[配电能耗IT设备能耗]+[UPS能耗IT设备能耗]+[照明能耗IT设备能耗]+…… PUE反映了数据中心总能耗和计算、存储、网络等IT设备能耗的比值。PUE值大于1,其数值越小,说明能源利用率越高。目前,国外先进的数据中心的PUE值能达到1.5~1.8,而我国的数据中心的PUE值为2~3,说明仅有33%~50%的电能用在了IT设备运行上,50%~66%的电能消耗在空调、配电等设备上。 2建设绿色数据中心应遵循的原则 2.1突出绿色环保,科学拟制方案:绿色数据中心建设要结合数据存储使用需求,根据信息采集、传输、处理和分发的具体使用需求,以及IT设备的具体特点,围绕绿色环保对数据中心的供电方式、UPS电源容量、制冷方式、照明、风路、水路、电路、管网、主要IT设备的选型等方面进行综合考虑,进行统一规划设计,并逐项细化,寻求最高效益。 2.2突出节能高效,合理配置资源:首先要突出保障重点。根据实际和存放数据的重要程度,可将数据中心划分为高密区、中密区和低密区,重点对高密区的电源、通风、制冷设备采取多种技术措施,制订多种配置应用方案。其次要便于系统扩容。根据信息化建设的发展特点,基础设施需求会呈现非线性爆炸性增长趋势,所以在数据中心的规划建设中,要充分考虑选址合理、系统容量易于扩展。 2.3突出稳定可靠,提高重组能力:不能稳定可靠运行的数据中心是无用的数据中心,因此设计数据中心一定要在提高其重组再生能力方面下功夫。硬件设施方面,在电源引接上,要有两个以上不同方向的路由线路;在UPS配置上,要采取多组互联方式,保证每个PDU单元、每个机柜的接电排、每个设备的电源输入端子上,都有两路以上独立UPS电源引接;在风机、制冷及配线上要进行N+1备份,对重要的保障区域要实现1+1备份。软件配置方面,运用云计算及虚拟化技术,将故障的网络、计算、存储等设备的应用随时自动平滑迁移到其他网络、计算、存储设备上,保证业务的不间断运行,提高系统重组能力。 2.4突出安全智能,提高管控水平:在外围监控上,要设立安全隔离区,建立由电子围栏、红外探测、夜视监控、自动报警、门禁系统等组织的综合外围监控系统,以提高安保等级。在区域设置上,区分维护区、设备区、控制区,将数据中心规划为不同的安全防护等级,采取多种身份认证措施和不同的防护手段,对核心控制区要设置以生物特征识别为基础的身份认证系统,严格人员进出管理;对核心设备区要设置气体消防,保证设备安全。在防电磁泄露上,对电源线、信号线等要采用屏蔽电缆,避雷装置和电缆屏蔽层应接地,对核心设备区要加装电磁屏蔽设施,保证设备安全可靠;在智能管理上,对数据中心的周边安全、内部温(湿)度等环境参数,对风、机、电、水相关配套系统运行指标,对计算、存储、网络设备负载运行状态,要能做到实时感知、直观呈现、智能处理,提高运维管理效率。 3建设绿色数据中心应关注的问题 3.1减少IT设备能耗:根据能耗结构和能耗路径图,IT设备每减少能耗1W,数据中心将整体减少能耗2.84W。在保证效率的前提下,降低IT设备的能耗是一个最有效的方法。从实现技术上看,主要有两种方法:一是采用高效低耗的核心部件。受加工工艺和技术水平的影响,不同供应商提供的CPU等核心处理器在能耗上存在20%~40%的差异,要尽量采用节能产品。二是采用工作效率较高的新型服务器,如用刀片式服务器取代机架式或塔式服务器,设备可节能20%~30%。 3.2采用虚拟化技术:采用虚拟化技术对现有服务器、存储设备进行整合,在不增加硬件投入成本的情况下,将所有的服务器、存储设备虚拟成一个公用的资源池,统一灵活调配,提供服务,在提高性能的同时减少物理服务器、存储设备的数量,减少电力、制冷和场地成本。在服务器方面,传统服务器平均CPU利用率一般为7%~15%,经虚拟化整合后,CPU利用率能提高到60%~70%,还能实现虚拟服务自动迁移、数据存储整体读写速率、系统鲁棒性和高可用性的提高。 4.3提高制冷效率:机房空调对数据中心的安全稳定运行起保障作用,空调耗电量在数据中心的总耗能中约占50%,已经超过了IT设备本身的耗电成本。提高制冷效率,主要从两个方面入手:①使用精密空调替代普通空调。同功率的普通空调和精密空调产生同样的制冷量,前者耗电量是后者的两倍。②规划好机房内冷热气流通道,避免交叉。传统的机房空调直接对机柜吹风或采用下送风方式,送(回)风路径不合理,应采用冷热气流通道隔离技术,科学设计机房各要素布局,缩短冷气流的运行距离,实现精确定点的冷能量投送,以减小能量消耗,提高空调制冷效率。 3.4减少供电模式转换:交流直流转换过程中的热损耗是数据中心隐性耗电的“大户”,能耗高达20%~30%。在传统供电方式下,为UPS 充电,要将外部交流电源转换为直流为电池充电;使用UPS电源时,要将UPS电池直流转换为交流,为IT设备电源模块供电;IT设备工作时,由于CPU等耗电设备是直流供电,IT设备电源模块要将外部交流转换为直流。在条件允许的情况下,尽量使用直流供电的服务器,通过直流电源供电方式,减少交流和直流电源逆变的次数,以提高电能应用效率。 3.5加强运维管理:通过精确智能的运维管理工具,实时监控和分析各种IT设备负载情况,及时发现、处理、维修、停用异常的IT设

相关文档
相关文档 最新文档