文档库 最新最全的文档下载
当前位置:文档库 › 数据中心水冷空调节能措施详述

数据中心水冷空调节能措施详述

数据中心水冷空调节能措施详述
数据中心水冷空调节能措施详述

1暖通系统的选型

对于大型数据中心节能水冷精密空调系统,新一代大型数据中心一般首选离心式。水冷空调系统,其特点是制冷量大,并且整个系统的能效比高。

离心式制冷压缩机的构造和工作原理与离心式鼓风机极为相似。图1给出了离心式压缩机工作原理图。

它的工作原理与传统的活塞式压缩机有根本的区别,它不是利用汽缸容积减

小的方式来提高气体的压力,而是依靠动能的变化来提高气体压力。离心式压缩

机具有带叶片的工作轮,当工作轮转动时,叶片就带动气体运动或者使气体得到动

能,然后使部分动能转化为压力,从而提高气体的压力。这种压缩机由于它工作时

不断地将制冷剂蒸汽吸入,又不断地沿半径方向甩出去,所以称这种型式的压缩机

为离心式压缩机。压缩机工作时制冷剂蒸汽由吸汽口轴向进入吸汽室,并在吸汽

室的导流作用引导由蒸发器(或中间冷却器)来的制冷剂蒸汽均匀地进入高速旋转

的工作轮(工作轮也称叶轮,它是离心式制冷压缩机的重要部件,因为只有通过工

作轮才能将能量传给气体)。

气体在叶片作用下,一边跟着工作轮作高速旋转,一边由于受离心力的作用,

在叶片槽道中作扩压流动,从而使气体的压力和速度都得到提高。由工作轮出来

的气体再进入截面积逐渐扩大的扩压器(因为气体从工作轮流出时具有较高的流

速,扩压器便把动能部分地转化为压力能,从而提高气体的压力)。气体流过扩压器

时速度减小,而压力则进一步提高。经扩压器后气体汇集到蜗壳中,再经排气口引导至中间冷却器或冷凝器中。

水冷冷冻机组的工作原理如下:

1冷冻水侧:一般冷冻水回水温度为12℃,进入冷冻器与冷媒做热交换后,出水温度为7℃。冷冻水一般通过风机盘管、组合式空调机组或水冷精密空调机向IT

设备提供冷气。由于数据中心的制冷量大,要求温差小、风量大且湿度需要控制,

一般采用水冷精密空调机;

2冷却水侧:一般冷却水进水温度为30℃,进入冷凝器与冷媒做热交换后,出水温度为35℃。冷却水一般使用蒸发式冷却塔通过水蒸发来散热降温;

3冷媒侧:冷媒以低温低压过热状态进入压缩机,经压缩后成为高温高压过热状态冷媒。高温高压过热状态冷媒进入冷凝器后,将热传给冷却水而凝结成高压

中温液态冷媒。高压中温液态冷媒经膨胀装置,成为低压低温液气混合状态冷媒。

低温低压液气混合状态冷媒进入蒸发器后,与冷冻水进行热交换,冷冻水在此处被

冷却,而冷媒则因吸收热量而蒸发,之后以低温低压过热蒸气状态进入压缩机。

离心式制冷压缩机具有下列优点:

1单机制冷量大(350到35000kW之间),在制冷量相同时,它的体积小,占地面积少,重量较活塞式轻5~8倍;

2由于它没有汽阀活塞环等易损部件,又没有曲柄连杆机构,因而工作可靠、运转平稳、噪音小、操作简单、维护费用低;

3工作轮和机壳之间没有摩擦,无需润滑。故制冷剂蒸汽与润滑油不接触,从而提高了蒸发器和冷凝器的传热性能;

4能经济方便的调节制冷量并且调节的范围较大。由于热量是通过水的蒸发(在冷却塔中)来散发的,因此夏天室外的高温对其冷却能力影响很小。

离心式冷冻机组在小负荷时(满负荷的20%以下)容易发生喘振,不能正常运转。因此,在数据中心水冷空调系统的设计中一般先安装一台小型的螺杆式水冷机组或风冷水冷机组作为过渡。

大型数据中心的水冷空调系统一般由以下五部分组成,示意图如图2所示。

工作原理图如图3所示。

1离心式冷冻机组一般为N+1配置,有一台备机,安装在冷站机房;

2冷却塔通常安装在室外或楼顶,一般一台冷冻机组对应一组冷却塔(便于维修和保证备机系统正常待机)。冷却水通过冷却塔来降温,由于水在大气中蒸发,

因此要设计安装水处理系统来除垢、除沙尘、除钠镁离子和病菌等,否则将大大

降低制冷效率。另外,由于数据中心是全年连续运行,还要设计冬季防结冰措施;

3由于数据中心需要连续运行,因此冷冻水的进水和回水管道都要设计成环路,大型数据中心可能设计成二级或三级环路,这样在局部冷冻水管道或阀门发生

故障时可以关闭相邻的阀门进行在线维护和维修。为了便于日后的维护、维修、

更换和扩展,需要安装设计相当多的阀门。为了防止漏水和提高使用寿命,需要选

择优质的阀门,有些工程使用优质无缝钢管,甚至不锈钢管。冷冻水管和冷却水管

不允许经过机房区域。在水管经过的区域需要设置下水道和漏水报警设备。为了

节能和防止冷凝水,冷冻水管和冷却水管都要采取严格的保温措施;

4水冷精密空调机其实就是一个温差小、风量大的大型风机盘管,一般推荐采用地板下送风和天花板上回风。为了保证IT设备的绝对安全和便于设备检修,

推荐设置物理上独立的空调设备间,四周做拦水坝,地面做防水处理和设置排水管

道,安装漏水报警设备。推荐采用N+1或N+2的冗余配置方案;

5冷冻水和冷却水的循环都是通过水泵进行的。水泵的节能除采用变频装置外,应采用较大直径的管道、尽量减少管道长度和弯头、采用大半径弯头、减少

换热器的压降等。冷冻机房、水泵、冷却塔、板式换热器和精密空调尽量设计安

装在相近的高度以减少水泵扬程。

由于大型数据中心的水冷空调系统的电力负荷很大,一般需要为水冷空调系

统设计独立的配电室。由上述可以看出,水冷空调系统比较复杂,成本也比较高,

维护也有难度,但是能满足大型数据中心的冷却和节能要求。

2水冷精密空调系统的节能运行维护

免费冷却(Free Colling)技术指全部或部分使用自然界的免费冷源进行制冷

从而减少压缩机或冷冻机消耗的能量。常见的免费能源有:

1中北部地区的冬季甚至春秋季,室外空气中储存大量冷量;

2部分海域、河流、地下水水温较低,储存大量冷量;

3部分地区的自来水中也储存了大量冷量;

4压缩燃气在汽化过程中产生大量冷量。

目前常用的免费冷源主要是冬季或春秋季的室外空气。因此,如果可能的话,

数据中心的选址应该在天气比较寒冷或低温时间比较长的地区。在中国,北方地

区都非常适合采用免费制冷技术。数据中心在环境温度较低的季节,将室外空气

经过过滤后直接送入机房作为冷源,也能节省大量能源,称为风冷自然冷却。这种

自然冷却方式原理比较简单,成本也比较低,但存在以下不足之处: 1要保证空气的洁净度不是一件容易的事。虽然可以通过高质量的过滤网保证空气的洁净度,但由于风量特别大,需要经常清洗更换,同时巨大的阻力也要消

耗相当的能源;

2湿度不好控制。加湿和除湿都是相当的消耗能源。如果采用简单的工业加湿设备,需要对加湿的水源进行高度净化(成本比较高),简单的软化水不能满足要

求(对设备有害,长时间会在设备内部形成一层白色物质);

3温度过低,容易结露并除湿。因此需要进行细致严格的保温处理;

4对于大型数据中心,由于距离远,风量特别大,这样就需要很大的风道,风机的电能消耗也非常的大。实际的设计和安装也是很困难的事;

5不可能实现全年自然冷却,夏季的制冷方式还需要安装单独的空调设备。因此,在大型数据中心中对自然环境要求较高,因此不推荐使用风冷自然冷却方

式。

采用水冷空调系统,当室外环境温度较低时,可以关闭制冷机组,采用板式换

热器进行换热,称为水冷自然冷却。这样减少了开启冷机的时间,减少大量能源消

耗。湿球温度在4℃以下时可以满足完全自然冷却,在湿球温度4~10℃之间可实

现部分自然冷却。在北京,一年内平均有5个月左右可以实现完全自然冷却,有2

个月左右可以实现部分自然冷却。节能效果将是非常明显的。

水冷精密空调系统中具有以下三种工作方式:

1夏天完全靠冷冻机制冷,通过阀门控制使得板式换热器不工作;

2冬天完全自然冷却,冷冻机关闭,通过阀门控制冷冻水和冷却水只通过板式换热器;

3春秋季节部分自然冷却。这时冷却水和冷冻水要首先经过板式换热器,然后再经过冷冻机组。

由于天气在不断的变化,上述三种工作方式也将不断进行转化。为了减轻运

维人员的工作和精确控制,在所有阀门采用电动阀的情况下,在空调系统管道若干

位置加装可以自动采集数据的温度计、流量计和压力表等,通过一套自动化控制

系统全年按最佳参数自动运行。但这套最佳运行参数的获取需要一定时间的经验

积累。

对于大型数据中心,由于制冷量特别大,同时考虑到降低N+1备机的成本,一

般采用2+1、3+1或4+1系统,为了便于检修和提高整个系统的可靠性,蒸发式冷

却塔、水泵、板式换热器和冷冻机组应一对一配置。

3采用变频电机节省能源

我们知道,空调系统的制冷能力和环境密切相关,夏天室外温度越高,制冷能

力越低,因此大型数据中心空调系统的制冷量都是按最差(夏天最热)工况设计的(空调的制冷量一般要比其在理想工况下的额定值低,这时建筑物本身不但不散热,反而吸热。)。这样,全年绝大部分时间空调系统运行在负荷不饱满状态。另外,

大型数据中心的IT负荷从零到满载也需要相当的时间,一般需1~3年。另外,IT

负载的能耗和网络访问量或运行状态相关,根据其应用的特点,每天24h的能耗都

在变化,一年365天的能耗也都在变化。比如,游戏服务器在早上的负载和能耗都

比较低,但在晚上就比较高;视频服务器在遇到重大事件时的负载和能耗就比较

高。

因此,我们强烈建议在水冷空调系统中所有电机采用变频系统,这样可以节约

大量的能量,其增加的投资一般在一年内节省的电费中就可以收回(基本满负荷情

况下)。要注意的是在选用变频器时,要求谐波系数一般小于5%,不然将对电网造

成不良影响。对于风机和水泵,输入功率和这些设备转速的三次方成正比。例如,

如果风机或水泵的转速为正常转速的50%,仅需要同一设备运行在100%额定转速

时理论功率的12.5%。因此,当设备运行在部分负荷时,变速装置的节能潜力十分

明显。

1变频冷水机组。冷水机组采用变频电机并作相应的特殊设计,节能效果非常明显。表1是一台典型的制冷量1000冷吨的变频冷水机组相对常规定频机组

不同负荷的节能效果,负荷越低,节能效果越明显。

即便是数据中心处于满负荷状态,但由于数据中心的冷水机组需要常年运行,

而室外的气温不断变化,对应冷却塔的供水温度也在不断变化,压缩机的工作压头

也随之变化,在这种情况下,采用变频驱动的离心机组能够不断的根据压头的变化

调节转速,达到节能效果。表1为机组在室内负荷恒定,机组100%满负荷运行状

态下,定频机组与变频机组的节能比较。

2变频冷却塔。冷却塔采用变频电机可以在部分负荷和满负荷的不同气象条件下实现节能效果。一般冷却塔的变频电机根据冷却水的温差进行控制,温差一

般为5℃,若高于5℃,将降低频率减少冷量来降低温差,若低于5℃,将增加频率加

大风量来提高温差。另外,冷却水的温度越低,冷水机组的效率就越高。根据YORK

公司在网络上公布的材料,冷却水温度每提高一度,冷水机组的效率就要下降4%

左右。因此,在进行冷却塔的变频控制时还要考虑这个因素。

3变频水泵。冷却水和冷冻水的水泵由于常年运转,耗能相当的惊人。变频水泵可以在部分负荷时降低水的流速来节能。一般变频水泵的变频电机根据冷却

水或冷冻水的温差进行控制,温差一般为5℃,若高于5℃,将降低频率减少流量来

降低温差,若低于5℃,将增加频率加大流量来提高温差。为了降低水泵的扬程和

能耗,建议冷冻机房、冷却塔和机房的垂直距离越小越好。

4水冷精密空调采用调速(EC)风机。调速风机一般根据回风温度控制风机的功率,若回风温度较低,就降低调速风机的功率减少风量,若回风温度较高,就提高

调速风机的功率增加风量。根据艾默生公司提供的材料,采用下沉方式安装调速

风机还可以进一步节省能耗,对于能够提供16400CFM(每分钟立方英尺)风量的精

密空调设计安装三台风机,采用普通风机、普通EC风机和下沉式EC风机分别对

应的风机功率为8.6kW、6.9kW和5.5kW。

4提高冷冻水的温度节省能源

冷水机组标准的冷冻水温度为7~12℃,水冷空调的标准工况也是认为冷冻

水温度为7~12℃。但是这个温度范围对于数据中心来说有点低,带来以下两个不

利因素:

1这个温度大大低于数据中心正常运行在40%左右相对湿度的露点温度,将在风机盘管上形成大量的冷凝水,需要进一步加湿才能保持机房的环境湿度。这

个除湿和加湿过程都是非常消耗能量的过程;

2冷冻水的温度和冷水机组的效率成正比关系,也就是说冷冻水的温度越高,冷水机组的效率也就越高。典型的水冷式精密空调,冷冻水温度每提高一度,冷水

机组的效率就可以提高大约3%。负荷百分比、定频机组COP、变频机组和变频

机组节能效果数据如表1所示。

目前,在模块化数据中心和高功率密度的冷水背板制冷技术中都把冷冻水的

温度设计为12~18℃,已经高于露点温度,完全不会除湿,也就不需要加湿。冷冻水

的温度提高后,水冷精密空调的制冷能力会下降,实际的制冷能力需要厂家提供的

电脑选型软件来确定,一般会下降10%~15%。但是由于冷冻水温度提高后很少或

基本不除湿和加湿,加上采用EC调速风机,电机产生的热量减少,整个水冷精密空

调的实际制冷能力(显冷)下降并不多。

数据中心的节能管理

对于数据中心而言,数据中心基础设施的10年总拥有成本(TCO)中,电能消耗

占相当大的比重。典型的数据中心电能消耗占总成本的20%。

一个值得注意的问题是,所消耗的电能转变成了热量被浪费掉了,而我们还要

消耗另外的电能来冷却其带来的热量,实际上,相当一部分浪费是可以避免的。

有关数据中心效率的典型的简单化模型完全低估了数据中心的电能浪费。本

文介绍一个能够提供较准确的数据中心损耗数据的计算模型,并指出哪些方面有

改进能耗的机会。

1数据中心的能源使用效率

任何设备或系统的效率都来自其能源输入(电能、燃料及任何使其“运转”的能

源)中转化为有效结果的那一部分(未获得有效结果的能源输入一律被视为“浪

费”)。这一“有效输出”占“总输入”的比例通常以百分比表示。

在数据中心的范畴内,效率被定义为总设施功率与IT设备消耗功率的比值。

这个参数成为数据中心的能源使用效率(Power Usage Effectiveness,简称PUE)。

PUE等于1相当于100%效率的数据中心。PUE的值越高,数据中心的整体效率越低。目前,PUE值已经成为国际上比较通行的数据中心电力使用效率的衡

量指标。PUE值越接近于1,表示一个数据中心的绿色化程度越高。当前,国外先

进的数据中心机房PUE值通常小于2,而我国的大多数数据中心的PUE值在2~3之间。也就是说,国内机房内芯片级主设备1W的功耗会导致总体耗电量达到2~3W,而国外机房内芯片级主设备1W的功耗只会导致总体耗电量为2W以下。2数据中心效率模型中的“有效”和“浪费”概念

在上述数据中心的模型中,“浪费”是指所有不属于IT设备所消耗能量。不言

而喻,数据中心基础设施除了为IT设备提供能量之外,还需进行其他有效的工作,

这些工作称为“辅助支持”。图4是一个典型的数据中心能源消耗分布。

从图4的例子可知,这个数据中心基础设施能耗占53%,IT设备耗电量仅为47%,由此可计算该数据中心的能源使用效率(PUE值)为(53%+47%)/47%=2.13。

在上述例子中,数据中心基础设施能耗的比例(53%)中,暖通系统能耗占41%(其中冷水系统占23%,加湿系统占3%,精密空调占15%),配电系统占9%(其中UPS能耗占6%,PDU能耗占3%),照明及辅助设备占2%,开关装置/发电机占1%。

对数据中心基础设施进行科学管理,提高数据中心效率。原则上讲,提高数据

中心效率的方法有三种:

1改进数据中心基础设施的内部设计,减少工作时的能耗;

2使数据中心基础设施组件的规划与实际IT负载更好地匹配(适度规划),提高组件的工作效率;

3开发新技术,减少提供数据中心基础设施各项功能所需的能耗。

虽然数据中心的效率可以凭经验来确定,即将所有IT设备的能耗相加并与数

据中心的电能输入总量相除,提出的做法是依据制造商提供的UPS和精密空调等

主要组件的效率声明。这比较省事,但获得的效率参数常常被严重夸大(比如乘以

一个系数),掩盖了可能有助于发现省电成本的机会的任何信息。

UPS制造商提供的UPS电源设备的效率,通常以输出电能与输入电能的百分比来表示;同样,冷却设备制造商提供的效率通常以“性能系数”(排出的热量与输入

的电能之比)的相关参数来表示。

不同制造商发布的同类设备的效率值相差并不大,这导致人们简单地认为,只

需将各个组件的无效耗电量相加便可获得数据中心的效率损耗数字。实际上,这

种方法无法获得真实的数据中心的准确数据。

UPS电源设备与冷却系统在以低于设备额定值使用时效率会显著下降,这意味着对数据中心效率进行的任何分析都必须将负载适当地表示为设计容量的一

部分。

对于每种UPS电源及冷却设备而言,设备在低于额定容量的状态下工作的原

因主要包括:

1数据中心IT负载低于系统设计容量。研究结果表明,一般的数据中心都在低于设计值65%的状态下工作。不能物尽其用是数据中心效率地下的一个非常重

要的原因;

2有意使用过度规划的组件,以提供安全容限。设计通常会将组件进行过度规划,其目的是避免组件以接近其容量极限的状态工作。可以在没有任何降额的

情况下运行设备,但为高可用性设施推荐的设计实践是采用10%~20%的降额值;

3组件以N+1或2N配置的形式与其他组件协同工作。通常做法是以N+1甚至2N配置形式来使用设备,以提高可靠性以及/或允许对组件进行同步维护,而

无需关闭系统。以这种配置来运行数据中心意味着IT负载由更多的设备分担,从

而有效地降低每台设备的负担。对于2N系统,任何单一设备的负载都小于其设计

值的一半。数据中心的效率受到以N+1或2N配置形式工作设备严重影响;

4组件过度规划以适应负载的多样性。这种影响很微妙,距离来说:假如一个数据中心的负载为1MW,由一个1.1MW的UPS提供支持,在UPS与IT负载之间

有10台配电装置(PDU),每台都为该IT负载提供部分电能。乍看起来,似乎选用额

定值100kW的PDU就能满足系统设计要求。但实际上,由于现实中的数据装修

不可能保证每台PDU均匀的负载平衡、平均分配。具体一台PDU的负载取决于

该PDU所在机柜内的IT设备,通常一个数据中心各PDU的负载存在数倍的差异。

也就是说,我们需要选用额定值不少于200kW的PDU。

在数据中心运行维护过程中,人们往往产生这样一个概念:UPS电源及冷却设

备的热输出(无效耗电量)占IT负载的比例是微不足道的,因此可以忽略不计。事

实上,数据中心内UPS电源和冷却设备产生的热量与IT设备本身产生的热量并

无不同,都需要用冷却系统加以消除。这给冷却系统带来了额外的负担。

通过以上讨论,经过对数据中心运维经验数据分析,可以发现减少损耗和提高

数据中心工作效率的措施:

1最大的节省能源措施是采用允许UPS电源和冷却基础设施随着负载的增加而增加的适应性、模块化结构,以减少数据中心的过度规划;这种措施降低损耗

的潜力约为50%;

2提高冷却系统的效率,这种措施降低损耗的潜力约为30%;

3降低数据中心UPS电源和冷却设备的空载损耗,这种措施降低损耗的潜力约为10%。

数据中心节能方案分析

数据中心节能方案分析 数据中心的能耗问题已越来越成为人们所关注,绿色数据中心的呼声越来越高。由于数据中心涉及的专业很多,研究者往往只从本专业出发,而没有考虑与其他专业的配合问题。随着信息技术的发展,数据中心的节能手段也在不断的更新和提高,目前主要使用的节能手段有以下几个方面。 1.1冷热通道隔离技术 经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,并且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示: 冷热通道完全隔离 隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。 隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,但是他们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃。隔离冷通道的未被隔离部分空

数据中心机房空调节能方法研究

东北石油大学 Tianjin University of Technology and Education 毕业设计 专业******** 班级学号: ##### 学生姓名:######## 指导老师:######### 二○一四年六月

东北石油大学本科生毕业设计 数据中心机房空调节能方法研究Research on energy saving of air conditioning based data center 专业班级:##### 学生姓名:### 指导老师:#######教授 学院: 2014 年6月

摘要 针对数据中心空调系统能耗比例过高问题开展了一系列调研,指出了目前国内数据中心空调系统使用中存在的问题,针对这些问题从空调设备节能、气流组织优化和自然冷源合理利用三方面分析了相关的节能方法与手段,为数据中心空调系统的节能设计与改造提供参考和依据。 本课题是利用其Fluent软件对数据中心空调系统的节能优化操作,该操作主要是对空调进行温度、湿度的参数调节,实现其数据中心机房的主控对空调的节能的具体的参数调节。 关键词:数据中心;空调系统;节能;Fluent软件;

ABSTRACT For data center air-conditioning system energy consumption high proportion problem has carried out a series of research, points out the problems existing in the use of domestic data center air conditioning system, to solve these problems from the air conditioning energy conservation, air distribution optimization and rational utilization of natural cold source three aspects analyzes the related energy saving methods and means, for the data center of energy-saving design and renovation of air conditioning system to provide the reference and basis. This topic is using the Fluent software for data center air conditioning system energy saving optimization operation, the operation is mainly to adjust the parameters of the temperature, humidity and air conditioning implement its master data center room of air conditioning energy saving the specific parameter adjustment. Key Words:The data center;Air conditioning system;Energy saving;Fluent software;

数据中心节能方案

数据中心的制冷系统节能方案 对于数据中心,制冷系统通常按照其满负载,高室外温度的最恶劣情况进行设计。当数据中心负载较少且室外凉爽时,系统必须降低功率以减少向数据中心供冷。然而,制冷机组的各种装置在这种情况下利用相当不充分并且工作效率极低。为了提高在这种情况下的工作效率,制冷装置经过改进,配置了变频调速驱动、分级控制或者其他功能。但是,仍然非常耗能。于是,工程师开始利用他们的知识与智慧,想法设法降低数据中心电力消耗,由此节能冷却模式应运而生。今天,我们就对数据中心的几种节能冷却模式进行一下总结。 做过数据中心的暖通工程师在听到节能冷却模式的时候,首先想到的应该就是“风侧节能冷却”和“水侧节能冷却”,这两个术语常被用来形容包含节能制冷模式的制冷系统。本期重点讨论风侧节能冷却模式。 1.直接风侧节能冷却模式 当室外空气条件在设定值范围内时,直接风侧节能冷却模式利用风机和百叶从室外经过过滤器抽取冷风直接送入数据中心。百叶和风阀可以控制热风排到室外的风量以及与数据中心送风的混合风量以保持环境设定温度。在与蒸发辅助一起使用时,室外空气在进入数据中心前需要先穿过潮湿的网状介质,在一些干燥地区,蒸发辅助可以使温度降低高达十几摄氏度,充分延长节能冷却模式的可用时间。

需要注意的是,这种类型的节能冷却模式在结合蒸发辅助使用时会增加数据中心的湿度,因为直接送入数据中心的新风会先经过蒸发环节。所以蒸发辅助在干燥气候环境下优势最大。如果是较为潮湿的天气环境,则应结合投资回报率评估是否使用蒸发辅助,因此所额外消耗掉的能源可能会抵消节能冷却模式所节能的能源,得不偿失。另外,此种的节能模式尽管送风已经经过过滤,但是并不能完全消除微粒,比如防止烟雾和化学气体,进入数据中心。 2.间接风侧节能冷却模式 当室外空气条件在设定值范围内时,间接风侧节能冷却模式利用室外空气间接为数据中心制冷。板换热交换器、热轮换热器和热管是三种常见的隔离技术,可隔离室外湿度的影响并防止室外污染物进入IT 空间。在这三种技术中,板换热交换器在数据中心中的应用最为普遍。 基于空气热交换器的间接节能冷却方法使用风机将室外冷风吹到一组板换或盘管上面,冷却穿过板换或盘管的数据中心内的热空气,将数据中心内的空气与室外空气完全隔离。这种类型的节能冷却模式也可以与蒸发辅助结合使用,向板换或盘管的外表面喷水以便进一步降低室外空气的温度,从而冷却数据中心内的热回风。与直接新风节能冷却模式不同,蒸发辅助不会增加IT 空间内的湿度,但需要补充少量新风。

数据中心能效指标及IT设备的能耗计算

数据中心能效指标及IT设备的能耗计算 作者:许剑更新时间:2010/4/813:29:20 摘要:在数据中心的建设和改造过程中,科学、长远的规划是构建绿色数据中心的关键,数据中心的能效是个能考量的指标,是否合格一目了然,IT设备的能耗盘点便是这指标考量中的关键,想要真正的做到绿色数据中心,我们就要先来看看你的数据中心是不是真的“达标”了。 数据中心的能耗问题已经引起了广泛的关注,众多的厂商推出了针对性的产品和解决方案,很多数据中心的管理人员也在寻求正确的方法来降低数据中心的能耗。 几年前GreenGrid(绿色网格)组织提出用PUE(能源利用效率)和DCE(数据中心能效)或DCIE(数据中心基础设施能效)的标准来衡量数据中心的能耗效率。但是,业内外对PUE和DCE作为能耗标准的有效性都普遍表示担心,这也使业内外对于更好衡量标准的需求变得更加迫切。 PUE及DCiE的概念: 能量使用效率PUE:PowerUsageEffectiveness 数据中心基础设施效率DCiE:DataCenterInfrastructureEfficiency PUE和DCiE二者成倒数关系 数据中心分成IT设备和Infrastructure(基础设施)两个部分,两个部分能效的乘积才是整个数据中心的能效,详见上图。 IT设备部分的能效评价指标还在定义之中,而Infrastructure(基础设施)部分的能效定义即PUEandDCiE。

数据中心IT设备与基础设施Infrastructure能效关系 数据中心基础设施Infrastructure能效指标 数据中心典型的PUE和DCiE曲线: PUE指标曲线

大型数据中心空调制冷系统的节能技术研究

大型数据中心空调制冷系统的节能技术研究 发表时间:2019-10-24T14:39:39.913Z 来源:《基层建设》2019年第22期作者:蒋广才[导读] 摘要:近年来,我国的暖通空调系统有了很大进展,大型数据中心空调制冷系统的构成复杂,使用时耗能大,以环保为核心的大趋势下,节能是各类系统优化的基本方向。 山东科灵节能装备股份有限公司山东潍坊 262100 摘要:近年来,我国的暖通空调系统有了很大进展,大型数据中心空调制冷系统的构成复杂,使用时耗能大,以环保为核心的大趋势下,节能是各类系统优化的基本方向。本文分析了大型数据中心空调制冷系统的节能技术应用,提出了促进系统综合性能的优化及强化的措施,仅供参考。 关键词:空调制冷系统;节能技术;节能要点引言 目前在我国暖通空调系统当中所应用的节能环保技术正在不断的发展和进步,在保证能源消耗不再增长的基础之上,可以使暖通空调系统具备除湿、制冷、制热等不同的功能,从而能够实现对二氧化碳排放量的有效控制,降低温室效应,提高能源的利用效率。 1、大型数据中心空调制冷系统的特点 大型数据中心具有三大基础资源:机房空调建设,空调制冷,电力供应,占地面积为几万平方米。为了保证三大基础资源平衡,同时达到较高的资源利用率,通过调整电力供应资源和制冷资源来平衡整体资源匹配程度。单栋数据中心能耗占成本的76%,建设成本中制冷成本占21%,所以对数据中心的制冷节能是必要的。维修与维保两个降低能耗的方式,可以提升全生命周期,可以按时的掌握设备的工况,能够迅速地检测设备故障,高度的管理性是数据中心不可或缺的必要因素。 2、影响空调制冷能耗的主要因素 产品的设计、选型及安装决定了制冷系统的工作效率,主要的影响因素有以下几点:第一,换热温差。一般而言,蒸发器内制冷剂蒸发的温度低于大气中的温度,才能将热能转给制冷剂吸走,并且保持压力平衡状态。第二,膨胀阀开启度。根据过热度进行定期检测,不断校准,使其过热度保持在合适的范围内。第三,制冷产品应用范围越来越广,且能耗巨大。随着社会的不断发展,制冷空调应用于企业、商场、学校、住宅等领域,耗能急剧增加。第四,选用高效能的压缩机及蒸发器冷凝器结构及换热面积的优化配置,高效换热材料的应用。第五,制冷系统安装工艺的改进提高等。第六,先进电气控制系统的应用等。 3、大型数据中心空调制冷系统的节能技术 3.1可用度分析 数据中心的主要应用目标是用于对组织运作的数据进行处理。这样的系统可以从软件企业购入,也可以由组织内部进行独立开发。一般情况下通用的系统包括了企业资源计划和客户关系管理系统。整个数据中心的服务倾向综合性服务。这样的系统一般由多个主机构成,各个主机的运行都是独立的,掌管单一的节点,包括数据库、应用服务器、文件服务器、中间件等等。此外数据中心也经常用于对非工作站点完成备份。这些备份通常与备份磁带共同使用。将本地服务器信息录入磁带。除此之外磁带的存放也易受环境的影响。规模较大的公司,可能会将备份的系统信息传递到非工作空间。并且借助数据中心完成回投。备份在经过加密之后,可以通过互联网被发送到另一个数据中心当中,得到妥善保存。为了达成受影响后恢复的目标,许多硬件供应商都提供了新的解决方案,以保证短时间内的可操作性。包括思科系统,美国太阳微系统公司的Sun微系统,IBM和惠普公司共同开发的系统,都是创新性的解决方案。在实际的系统应用过程中,因为可用度关乎空调系统的质量,因此冷却水泵、冷却塔及冷水机组的可用度等,都关系到厂家。在自然冷却的情况下,设备的群组串联方式相对来说有更强的可用性。 3.2可维护性比较 由于机房具有一定复杂性,随着业务的发展,管理任务必定会日益繁重。所以在机房的设计中,必须建立一套全面、完善的机房管理和监控系统。所选用的设备应具有智能化,可管理的功能,同时采用先进的管理监控系统设备及软件,实现先进的集中管理,从而迅速确定故障,提高运行性能、可靠性,简化机房管理人员的维护工作。 3.3可管理性与节能性的比较 可管理型的衡量应首先从冷热通道的控制去分析,因许多用户会使用塑料板去隔离冷热空气,进而确保冷却的效率得到提升。冷热通道控制这一手段的应用能够确保数据中心的冷却效率有百分之十五左右的提升。实际转换成电力消耗的数值,在服务器数量五百,每度电费五毛的前提下,每年约省电费的数额为七万两千元。但是依照当前的运行成本及系统概况来看,因涉及许多环节的操作,所以这样的处理需要面对较大风险。近年来随着冷水机组制冷效率的不断提升,制冷过程当中水泵的耗能占比也更高,甚至能够达到整个系统能耗的百分之十五到百分之三十五,在设备群组模式下,调节水流量与扬程的方式更多,能够达成多台水泵的同步变频,并且对变频水泵的台数进行控制。在多冷源并联模式下是无法对台数进行控制的,所以设备群组方式的优势更为明确。 4、关于暖通空调系统的空调制冷管道的安装管理技术与安全对策 4.1制冷管道的敷设方式 制冷系统的排气管要设置在吸气管上端,两管设置在同一水平支架上,同时两者要确保在一定的距离,以确保避免出现吸气管道与支架直接接触产生相对应的冷桥问题。同时也要着重根据相关情况,把一个油浸过的木块放到管道之间的空隙缝内。敷设制冷剂的液体与气体管道在应用方面要与既定的设计要求相符合,用顺流三通接口。针对制冷管道弯道的设计,要用冷报弯设计,因为这样可以很大程度上有些要减少管内的秽物。针对地下敷设进行划分可以划分为三种情况,分别是:通行地沟敷设、半通行地沟敷设以及不通行地沟敷设。大多数时候都要进行通行地沟敷设的地沟的设置,冷热管要敷设在同一个通行地沟内部,低温管道的敷设要与其他管道有足够的距离,同时要设置在其他管道的下边。半通行地沟高度要稍微低于通行地沟,高温管与低温管不可以在同一个地沟内敷设。 4.2高效能的压缩机换热技术 制冷空调的核心技术是压缩机,提高压缩机的工作效率,不断改进结构,控制能耗,将传统的活塞式、旋转式压缩机逐渐用涡旋式压缩机,高效螺杆式压缩机及磁悬浮离心式压缩机取代并采用变频控制。选取优质的材料,使得压缩机传热效果增强,增加换热接触面积,提高换热性能,使热量及时排放有效地增加效绩。

数据中心能效研究报告

中国数据中心能效研究 报告

前言 数据中心是我国实现经济转型升级的重要基础设施,提供的巨大 数据处理能力是国家战略资源,是实现智能制造、互联网+、物联网、云计算、大数据等技术和应用的基础保障,同时因其巨大的能源消耗和对环境的影响使绿色数据中心成为中国制造2025 中绿色制造中的重点领域。数据中心在我国未来一段时期内将持续快速发展,同时需进行有效管理实现其低碳绿色可持续发展。 数据中心是提供数据计算、存储、交换等资源的服务和其他应用 服务的电子信息基础设施,具备以下特点和作用: 1)是支撑经济转型的重要电子信息基础设施和服务平台 数据中心是提供大规模数据交换、计算、存储等功能的核心基础设施,是满足大规模数字化、网络化、虚拟化和智能化需求的核心节点,是政务、金融、商务、制造、科研和民生服务等活动开展的重要保障。因此数据中心是我国开展经济转型的关键配套和支撑基础设施和服务平台。 2)是支持科技发展和创新的重要载体 数据中心是提供计算等能力的资源池。智能制造、物联网、云计算、大数据等新兴技术和应用以及科学研究等方面的发展和创新都需要以海量数据处理为基础,需要大量调用计算资源开展。数据中心的

核心任务之一就是承载该方面的需求。 3)是信息安全的关键节点 数据中心作为海量数据集中处理的物理设施和平台,由于其在信息链路中的核心作用必然成为信息安全的关键节点。数据中心的安全除信息安全技术领域外还包括计算机机房的物理环境安全。IT 系统无法规避由于运行环境不能满足要求而导致的功能丧失。 4)是节能重点对象 数据中心耗能巨大,对资源需求多样。根据美国能源局的统计数据中心的年耗电量已经占美国年发电量的 1.5%,据估算我国数据中心的年耗电量占比与美国基本相当,已经达到三峡的年发电量。依据对我国全国范围内7000 多家数据的耗电量的调研,不考虑规模前提下,数据中心单体年均耗电量超过一百万度。数据中心在大量耗电的同时也消耗大量水等其他资源。 在新常态下我国的数据中心领域的发展存在着挑战又有着机遇。从人类社会经济的总体发展历程来看经历了从农耕经济到工业制造经济到技术经济再到信息经济的基本过程。在以德日为代表的技术经济受到美国为代表的信息经济的巨大挑战后,如何加强信息化和工业化的深度融合,使信息经济红利可以反哺回制造业等实体经济,这是我国乃至世界范围内共同面临的课题。我国也明确提出了中国制造

1-数据中心空调系统设计与节能优化分析

数据中心空调系统设计与节能优化分析 引言 现代科技的发展对IT、电信企业的要求逐步提高,为了满足市场要求和行业竞争,企业必须不断投入人力物力进行硬件加强,随之,研发大楼越建越多,研发中心的核心之一——数据中心的规模也在逐步扩大。据Jonathan Koomey博士(美国斯坦福大学和伯克利实验室教授)的一份研究报告统计,自2000年到2005年,全球数据中心能耗翻了一番,2005年美国所有数据中心的电耗是450亿kwh,其中包括了数据中心IT设备、空调制冷设备及其辅助设备的耗电量,直接产生的经济费用为27亿美元,由此估计全球数据中心的能耗所产生的费用为72亿美元。根据美国Uptime研究院的分析,数据中心的电耗增长迅速,以每年15%的速度增长,到2005年已经达到了18000 w/(平方米机柜占地面积)。从2000年到2001年,仅一年时间,机柜能耗就增长了1100 w/(平方米机柜占地面积)。数据中心单位面积能耗可由机房总能耗以机房面积得到。 如何以最节能的方式保证系统的稳定运行成为了空调设计师的首要任务。本文针对上海某IT企业研发大楼的4个数据中心进行分析。 1、数据中心概况 该IT企业大楼位于上海郊区某科技园区,共5层,建筑面积约为25 000平方米,本文研究的数据中心位于该大楼5层中心位置,呈长条形布置,4个数据中心的面积分别为286,164,104,144平方米。数据中心的正上方屋顶上设有1.8 m高的平台,用于放置大楼的空调处理设备,平台下则放置了与数据中心有关的排风设备以及用于数据中心全新风制冷的新风百叶,既保证了设备的隐蔽性和安全性,又防止雨天或者其他特殊天气对数据中心空气调节带来的影响。 2、空调系统设计 2.1数据中心房间设计温湿度

数据中心工程中暖通系统节能措施的分析与研究

数据中心工程中暖通系统节能措施的分析与研究 摘要:随着中国经济的迅速崛起,信息化、网络化的时代快速到来,数据中心 的规模越来越大、服务器的发热密度越来越高,与之伴随的则是能源消耗的陡然 升高。概述了目前数据中心工程设计时主要的暖通系统,逐一分析目前采用较多 的节能措施特点、应用条件等,讨论了一些应用较少或较新的节能措施。 关键词:数据中心;发热密度;节能措施 一、引言 随着中国经济的迅速崛起,信息化、网络化的时代快速到来,作为信息化的 基础设施,数据中心的规模越来越大、且服务器的发热密度越来越高,与之伴随 的则是能源消耗的陡然升高,节能变得刻不容缓,从IT设备自身对周围环境的要 求出发,制定一个系统的、有针对性的、安全的、节能的暖通空调系统方案成为 暖通专业设计人员的主要目标。在2006年以前,单个数据中心的规模还很小, 大多数均在2000m2以下,且单机柜发热密度也很小,采用的冷却方式一般为直 膨式的机房专用精密空调,其特点是控制精度高,在寒冷地区能全年运行,使用 寿命较一般舒适型空调长,但价格昂贵。2006年后,数据中心的规模越来越大,单个数据中心的面积达到上万平方米,如果还按照机房专用精密空调作为冷却方式,评价其节能效果的重要指标PUE(Power Usage Effectiveness)至少在2.0以上。 所以,这种冷却方式在规模较大的数据中心中会使得整个运行过程的电费大 幅升高。针对这种情况,目前的普遍做法是用冷冻水系统代替直膨式精密空调, 以冷冻水系统(一次泵或二次泵均可)作为基础,针对不同的气候参数、可利用场地、平面布局等条件又细分为多种形式,例如冷源可以是风冷冷水机组,也可以 是水冷冷水机组;空调末端可以是精密空调也可以采用组合式空调,且组合式空 调还可以采用热回收式机组等。本文主要从节能的角度出发,重点阐述可行的节 能措施,针对具体工程,可根据实际情况选取合理的节能措施形成一个完整的、 有针对性的空调系统。 二、数据中心机房环境要求 数据中心主要是给服务器、存储等设备提供一定的运行环境,服务器等设备 均是处于全年不间断运行中,对于运行环境要求非常,涉及温度、湿度和空气洁 净度。一般机房机柜区域或冷通道温度设置在24℃左右,湿度40%到65%,空气 洁净度要求每立方空气中大于或等于0.5μm的悬浮粒子数少于1760000粒,如果 空气中存在的硫化物、氮氧化物以及腐蚀性气体也会对于服务器等设备产生非常 大的伤害。 相关统计数据显示,数据中心每年每平方英尺能源成本是普通办公室的十倍,其中暖通系统能耗最大,可见暖通系统能耗的严重性。导致数据中心暖通系统能 耗高的因素有很多。首先,从新风处理角度来看。一些数据中心建设中,忽视了 对自然因素的利用,不能新风处理能耗大,且处理效果不理想,导致新风处理过 程中能耗问题突出。此外,一些数据中心规模扩大、设备增多,却没有合组织气流,结果造成冷风与服务器的热风混在一起,严重制约了暖通系统功能发挥,导 致能耗严重,更给设备运行造成了不利影响。另一方面,一些数据中心缺乏相应 管理制度,没有设置隔离门,造成数据中心与外界空气环境交换过于频繁,导致 数据中心内部湿度、温度与实际需求偏差较大,就会加大暖通系统整体能耗,更

数据中心节能改造的7种解决方案图文【最新版】

数据中心节能改造的7种解决方案图文 点评网()报道:随着计算机网络业务量的迅速增长、服务器数量的增加,机房的面积及规模也在不断扩大,数据中心的能耗成本也迅速增加,并有赶超硬件成本的趋势。据权威机构调查显示,我国每年用于服务器的电源和冷却的总开支超过了20亿美元。对于已经建成投产的数据中心,如何实现有效的节能改造,需要从多方面考虑。本篇介绍了数据中心基础设施节能改造的几种主要解决方法。 一、设计一套机房整体监控系统 图IT设备负载变化曲线 从机房负荷和空调冷量配置来看,机房一般设计为N+X的安全运行模式,但从整个机房IT设备布局来看,由于机房面积较大,考虑其循环风量及减少机房局部温度死角等问题,及负载设备功耗的动态变化,精密空调群无法做到人为控制按照需求运行,机房发热量变化

无规律可以遵循,所有室内风机全速运行,压缩机由每台空调独自按照自己的需求进行控制,此种运行模式从运行费用角度来说是不经济节能的。如果强制空调群中的冗余设备进行关机运行,由于机房气流组织及温度变化规律很难掌握,人为控制空调的开机与关机也很难做到机房安全,因此可能存在局部温度不可控的现象。因此,机房精密空调群控対机房节能起到至关重要的意义。 机房专用空调群控节能的思路是:在保障机房设备正常运行的前提下,通过减少冗余空调设备的运行时间,来降低整个机房的能耗,实现空调系统的备份/轮循功能、层叠功能、避免竞争运行功能、延时自启动功能。 结合曙光自适应集群功率与能耗监控系统,进行精密空调集群集中管理,管理软件根据CPU占有率计算每一排的服务器功耗,根据负载分布情况及精密空调分布情况精确控制相应位置空调的工作状态,其中主要包括压缩机的启停和空调室内机的风扇启停。精密空调通过RS485网络与协议转换器通信,协议转换器通过以太网与管理节点协同工作,这样使不同厂家的精密空调(具有监控功能)能够通过曙光标准协议接口与管理节点进行数据交互每个服务器机柜内安装两个无线温湿度探头,每排机柜构成一个网络,通过物联网的组网方式形成一个温湿度监控网络,并通过以太网将数据上传至管理节点,形成双层监控网络,在监测到服务器到温的时候,开启机房空调,在节能的

数据中心能耗计算指导方法

数据中心的能耗审计 若想实现数据中心的节能降耗,首先需要确定影响数据中心能耗的基本因素。通过系统化的能耗审计能够提供数据中心能耗的实时概况和模型,明确了解数据中心的总体能耗以及能耗的具体分布状况,同时可以建立基线供未来改造规划之用。 能耗的审计可以通过手动计量,也可以采用先进的自动化设备获取相关数据。在能耗审计过程中,将主要依据以下三类数据开展审计工作: (1) 第一类是电量参数,包括系统和独立设备的工作电流、电压和电流波形等。 (2) 第二类是空气参数,包括温度、湿度、风速和温升等。 (3) 第三类参数,包括水和气的用量等。 数据采集密度越高,精度就越高,审计结果的准确性也越高。为了能够快速准确地进行能耗审计,大中型以上规模的数据中心都装有自动化的数据采集系统和分析系统,可以快速地进行能耗分布情况统计和分析。 通过能耗审计,可以明确知道能源的去向。在能耗较高的方面,能够有针对性地开展节能工作。我们知道,电力消耗是数据中心最主要的消耗,空调制冷等方面的能耗同样是以电力消耗的形式表现出来。 现有的一些研究数据可以让我们比较清楚地看到目前多数数据中心的电能分布情况。虽然这种分布并非理想,却代表了当今的普遍现状。数据中心输入电力分布如图4-1所示。 图4-1数据中心输入电力分布 从图4-1中可以看出,能耗高是目前数据中心普遍存在的现象。当IT设备系统,包括服务器、存储和网络通信等设备产生的能耗约占数据中心机房总能耗的30%时,电能使用效率(PUE)在3左右。其他各系统的具体能耗分布如下: (1) 制冷系统产生的能耗约占数据中心机房总能耗的33%左右。 (2) 空调送风和回风系统产生的能耗约占数据中心机房总能耗的9%左右。 (3) 加湿系统产生的能耗约占数据中心机房总能耗的3%左右。 (4) UPS供电系统的能耗约占数据中心机房总能耗的18%左右。 (5) PDU系统产生的能耗约占数据中心机房总能耗的5%左右。 (6) 照明系统的能耗约占数据中心机房总能耗的1%左右。 (7) 转换开关、线缆及其他系统的能耗约占数据中心机房总能耗的1%左右。 从数据中心电能的流向来看:一是IT设备约占30%;二是空气处理设备约占45%,建筑

(完整版)数据机房专用空调能耗评估与分析

数据中心能耗指标 1. PUE PUE ( Power Usage Effectiveness,电能利用效率)是国内外数据中心普遍接受和采用的一 种衡量数据中心基础设施能效的综合指标,其计算公式为: PUE = P Total / P IT 其中,P Total 为数据中心总耗电,P IT 为数据中心中IT 设备耗电。 PUE 的实际含义,指的是计算在提供给数据中心的总电能中,有多少电能是真正应用到 IT 设备上。数据中心机房的PUE 值越大,则表示制冷和供电等数据中心配套基础设施所消耗的电能越大。2. pPUE pPUE(Partial Power Usage Effectiveness,局部PUE)是数据中心PUE概念的延伸,用于对数据中心的局部区域或设备的能效进行评估和分析。在采用pPUE 指标进行数据中心能效评测时,首先根据需要从数据中心中划分出不同的分区。其计算公式为: pPUE1= (N1+I1) / I1 其中, N1+I1 为1 区的总能耗, I1 为1 区的IT 设备能耗。 局部PUE 用于反映数据中心的部分设备或区域的能效情况,其数值可能大于或小于整体 PUE,要提高整个数据中心的能源效率,一般要首先提升pPUE值较大的部分区域的能效。 3. CLF/PLF CLF( Cooling Load Factor)称为制冷负载系数,PLF( Power Load Factor)称为供电负载系数)。CLF 定义为数据中心中制冷设备耗电与IT 设备耗电的比值;PLF 定义为数据中心中供配电系统耗电与IT 设备耗电的比值。 CLF 和PLF 是PUE 的补充和深化,通过分别计算这两个指标,可以进一步深入分析制冷系统和供配电系统的能源效率。 4. RER RER( Renewable Energy Ratio,可再生能源利用率)是用于衡量数据中心利用可再生能源的情况,以促进太阳能、风能、水能等可再生,无碳排放或极少碳排放的能源利用的指标。 一般情况下, RER 是指在自然界中可以循环再生的能源, 主要包括太阳能、风能、水能、生物质能、地热能和海洋能等。 专用空调系统能耗评估与分析 冷源的效率 能耗分析:

高效数据中心的六大绿色节能措施

高效数据中心的六大绿色节能措施 和一两年前相比,很多数据中心的运营者们如今也并未热衷于“绿色”这个词。这当然不是说他们已经抛弃了旨在提升能源效率,更好地利用IT资源的各种项目,因为这些项目既可以削减运营成本,又能减少对环境的影响。 市场咨询公司451集团在考察了被大批组织和机构所接受的可降低数据中心运营成本的六种绿色实践之后,发布了一份内容全面的报告:《高效节能的数据中心实践》。其中的一些实践做法,如进行数据中心的全面规划,寻找可替代传统制冷系统的方案等可能早已被大家所熟知;其他做法,如采用直流供电和预制件数据中心等,则很少有人谈及,或者被认为不可持续而不予理会。 在计划升级其设施时,数据中心的运营者们应该好好考虑或者重新考虑一下这些趋势。当然,并非所有这些实践都适合每一个组织,但如果你不去看看,那你就有可能永远都不知道有这些实践做法存在。 实践1:采取综合的可提升整体效率的方法 数据中心运营者需要通过结合了集成技术和各种手段全面处理效率问题的方法,而不能孤立地去对待每个项目。这其实并不是什么开创性的概念:绿色网格组织从2008年成立以来就一直在提“通盘考虑”的口号。而这样做的最大好处之一就是可以促进各部门间,尤其是设施部门和IT 部门间的协同,确保所有的参与者在对数据中心进行升级改造时能够意见一致。举例来说,IT 部门订购了一个用于关键任务项目的高端服务器机柜,那么他只需要在机柜到达数据中心时打听一下是否有足够的电力或冷却能力支持这个机柜便可。 组织内的协作并未到此结束。为了努力减少能源浪费,很多企业部门之间如今已越来越开放,曾经是各部门最隐秘的东西也可以公开。这方面最有名的例子就是Facebook,利用其开放计算项目,该公司有关高效服务器、机柜和冷却设备的蓝图也都在开源。 实践2:更智能的冷却系统 数据中心运营者们正逐渐意识到,数据中心设施并非存放肉类的大冰柜,只需要适当制冷即可。虽说IT管理人员不希望设备因过热而失灵。但如果你花在IT上的每个美元都得分出50美分用于制冷的话——这正是很多传统数据中心的平均PUE比值——那几乎可以肯定你是在烧钱。 有好多种办法可以降低冷却成本,其中一些技术始终不被企业所接受,生怕会毁掉他们的宝贵硬件。这其中就包括液体冷却技术,该技术被认为会产生很多维护方面的问题,而且使用范围有限。但是来自绿色革命冷却公司的一种液体冷却方法采用了低成本、无污染的绝缘液体,据称其吸热能力是空气的1200倍。 至于空气冷却这种免费冷却方法则要比液体冷却更受欢迎。这个概念也很简单:只要把数据

数据中心机房节能简析

数据中心机房节能简析 贾骏 吕捷 王众彪 工业和信息化部电信研究院 邮电工业产品质量监督检验中心 摘要:本文阐述了数据中心机房的主要能耗分布情况,并从数据设备、电源系统、空调系统、机房气流组织几个方面介绍了机房降耗的主要方式。 关键词:数据中心 UPS 气流组织 1、数据中心机房概述 数据中心是为集中式收集、存储、处理和发送数据的设备提供运行维护的设施以及相关的服务体系。数据中心提供的主要业务包括主机托管、资源出租、系统维护、管理服务,以及其他支撑、运行服务等。 本文所提到的数据中心机房,是指承载数据中心业务的基础设施,一般由核心业务机房、UPS机房、电池室、空调机房、柴油发电机房等构成。 我国数据中心市场发展迅速,根据赛迪顾问年度报告,2010年中国IDC市场规模达到102.2亿元。我国2005年以来数据中心市场发展的趋势如图1所示。 图1 我国IDC市场发展趋势 2、数据中心机房能耗分布 2010年我国数据中心资源投入占总投入将近30%,维护成本占总投入近15%。[1]2010年我国数据中心运营成本分布如图2所示。

图2 2010年中国IDC公司最高运营成本分析 数据中心机房能耗主要分为服务器/网络设备能耗、制冷能耗、供电系统能耗、照明和其他能耗。根据EYP Mission Critical Facilities所提供的数据,50%的数据中心用电量是被服务器/网络设备所消耗。制冷系统是数据中心内第二大能耗系统,其耗电量占数据中心总耗电量的37%。供电系统占10%,照明和其他占3%。[2] 3、数据设备降耗 数据设备是承载数据中心的业务核心设备,同时也是耗电量所占比例最大的设备。根据亚马逊JamesHamilton的研究,数据中心服务器硬件所消耗的电力的费用约占57%。针对不同规模的数据中心,该费用比例是不同的。2010年我国数据中心规模分布如图3所示。 图3 2010年中国IDC公司的机房服务器数量 服务器是数据中心最为常见的设备。使用高效低能耗的服务器是数据设备降耗的关键所在。Standard Performance Evaluation Corporation(SPEC) 是一个全球性的、权威的第三方应用性能测试组织,它制定了一系列的规范来评定服务器应用性能。可以根据SPEC的测试值评定服务器的效能/能耗,以此作为选购服务器的参考。另一个评定标准是能源之星的服务器标准,符合能源之星标准的服务器要比旧式服务器多出30%的能源效率。 对于网络设备,可以使用TEEER值以及ECR/EER性能能耗比评估法进行节能分析。 4、电源系统降耗

数据中心空调系统节能设计分析及方法探究

数据中心空调系统节能设计分析及方法探究 发表时间:2019-08-06T15:46:25.110Z 来源:《建筑学研究前沿》2019年8期作者:傅永洪 [导读] 空调系统作为保证数据中心的稳定高效运转必不可少的措施,经过专业研究有着极大的节能减排的挖掘余地。 浙江新大新暖通设备有限公司浙江金华 321000 摘要:伴随着大数据时代的到来,我国的数据中心的数量与日俱增。但是数据中心的高能耗问题也成为了我国节能减排工作需要关注的一个重点问题,本文以大型数据中心空调系统作为研究对象,在分析大型数据中心空调系统的设置和特点的基础上,提出具有可实施性的节能措施,进而提高大数据中心空调系统的节能减排和能源利用率。 关键词:数据中心;空调系统;节能;分析研究 一、引言 进入大数据时代,各行各业的发展越来越离不开能够集中处理、存储和交换数据的专业数据中心,因此,各领域的数据中心建设和改造数量越来越多,规模越来越大。可以说我国的数据中心发展迅猛。但是通过系列的调查研究,可以发现我国当前的数据中心年耗电量很大,这也就意味着我国大多数的数据中心的平均电能使用效率(简称PUE=数据中心总能耗 / IT设备能耗)高,这并符合当前节能减排的发展原则。因此,我们需要通过多种形式的策略减少大数据中新的高耗能问题。其中,空调系统作为保证数据中心的稳定高效运转必不可少的措施,经过专业研究有着极大的节能减排的挖掘余地。 二、数据中心空调系统的组成 数据中心空调系统主要有制冷系统、散热系统及降温辅助系统三部分组成。 (一)制冷系统 主要是冷水机组,制冷系统的工作原理是通过转变制冷剂的高压、低压的形态,利用空气的流动性,迫使数据中心机房内部的热量流出室内。制冷系统作为保证机房温度的基础保障,是空调系统高耗能的部分之一,影响空调系统中制冷系统能源消耗的因素有机房环境温湿度、室外环境温湿度、受负载率等。 (二)散热系统 主体是风机或泵,工作原理是利用空气或水把热量从数据中心内部搬运到数据中的室外。排热系统产生足够的风量或水量以带走巨大的热量,但同时散热系统也是数据中空调系统耗能高的部分之一。影响散热能源消耗的因素是机房内部的气流组织。 (三)降温辅助 工作原理是通过冷却塔、喷头或湿式过滤器,利用水的蒸发在热量排到室外的工作过程中提供帮助。降温辅助系统可以提高换热效率,帮助空调系统把热量散发地更快。降温辅助系统的耗能比例占空调系统整体耗能比例较小。 三、数据中心空调系统高耗能解析 (一)空调系统配置不合理 由于数据中心对内部环境的恒定温湿度和空气质量都有很高的要求,但限于一些外部环境和技术升级的原因,大部分数据中心的空调系统都不引入室外新风,而采用循环风带走室内高密度的显热量。一般情况下,在室内没有湿源的条件下采用循环风的送风方式,空调系统是不用除湿的。但在数据中心空调系统的实际运行中,机房空调仍会流出冷凝水,这是因为空调在冷量输出时,冷凝水会携带冷量。因此数据中心在严格空气湿度的情况下,机房空调系统通常会一边对机房内部降温回风、冷凝除湿,另一方面又同时加湿,这种设备工作方式并不不合理,会造成大量不必要的能量浪费。 (二)机房气流组织不合理 数据中心机房内部的气流组织会对整体的散热排风效率产生极大的影响,当前的多数数据中心的气流组织都存在一些不合理的现象,主要体现在以下三方面:一是机柜排列方式不合理,把机柜面向同一个方向摆放,造成的结果就是前面服务器排出的热空气直接被后排服务器吸收,使得冷热气流混合在一起,大大拉低了空调制冷效率;二是送风通道设计不合理。一些数据中心建设规划不专业,送风管道等不符合标准,影响了空调系统的制冷能力,为了满足制冷要求会选用超出设备发热量的空调,提高了耗电量;三是地板出风口位置和空调出风口的距离设置不合理,甚至在二者之间摆放机柜,造成出风量不足、局部过热的问题。 四、数据中心空调系统的节能措施 (一)采用自然冷却技术 传统的常规制冷系统,需要制冷系统全年不间断地制冷,冷水机组全年运行运行,占据了空调系统的极大的耗电量。因此,采用自然冷却技术,可以在低温环境下,优先利用低温的自然水或风做冷源,免除了冷水机组的耗电成本。目前的自然冷却技术,主要有水侧自然冷却技术和风侧自然冷却技术两种。 (1)水侧自然冷却技术 水侧自然冷却技术,顾名思义就是在符合标准的情况下利用自然水做冷源供水。采用水侧自然冷却技术,一般需要把冷水和冷却水系统串联在板式换热器中,并把冷水的供回水温度设置成三段式:当冷却水供水温度≥16℃时,冷水机组和平时一样常规制冷,单独承担数据中心的全部冷负荷;当冷却水供水温度降到10—16℃,系统可以开始使用部分的冷水作为免费冷源,由冷水机组和免费冷源共同为空调系统提供冷负荷;当冷却水供水温度<10℃以下时,冷水机组可以在技术设置后自动停止运行,空调系统的全部冷负荷由免费冷源提供。通过自然冷却技术,在过渡季和冬季减少了压缩机工作,这种技术十分适合在我国北方沿海范围内的寒冷湿润性气候里使用,可以大大降低数据中心空调系统的PUE值。 (2)风侧自然冷却技术 风侧自然冷却技术包括和间接利用室外新风两种方式。直接利用室外新风,是指把室外低温冷空气运用过滤、除硫等方式净化处理后,直接引进数据机房内,作为冷源冷却设备,实现节能。如全年PUE仅1.07的FACEBOOK数据中心,采用的就是直接利用新风供冷。间接利用室外新风,又称“京都制冷”,东京很多的数据中心都采用这种方式,具体是指室外低温空气不直接进机房,而是通过转轮式换热器吸

数据中心节能方案分析

数据中心节能方案分析(总7 页) -CAL-FENGHAI.-(YICAI)-Company One1 -CAL-本页仅作为文档封面,使用请直接删除

数据中心节能方案分析 数据中心的能耗问题已越来越成为人们所关注,绿色数据中心的呼声越来越高。由于数据中心涉及的专业很多,研究者往往只从本专业出发,而没有考虑与其他专业的配合问题。随着信息技术的发展,数据中心的节能手段也在不断的更新和提高,目前主要使用的节能手段有以下几个方面。 冷热通道隔离技术 经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,并且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示: 冷热通道完全隔离隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,但是他们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃。隔离冷通道的未被隔离部分空间的温度将会比传统数据中心大大的提高,这将增加了数据中心工作人员的舒适度和减少数据中心其他设备的使用寿命。

相关文档
相关文档 最新文档