文档库 最新最全的文档下载
当前位置:文档库 › 数据中心制冷系统发展趋势

数据中心制冷系统发展趋势

数据中心制冷系统发展趋势
数据中心制冷系统发展趋势

数据中心制冷系统发展趋势

数据中心制冷设备就是为数据中心环境、数据中心主设备服务得、就是依托于数据中心设备、功能而存在得,所以从根本上讲,我们瞧数据中心制冷系统得发展趋势,应该结合数据中心本身得发展来瞧,比如应用得行业、规模、主设备等等因素得变化都可能会导致数据中心制冷设备变化,甚至国内外标准得升级、国家区域政策得变化也对数据中心制冷得形态产生直接或间接得影响。

一、2000年左右数据中心行业发展初期,web1、0时代

1、数据中心特点

(1)计算机、互联网尚未普及,数据中心概念尚未建立;

(2)小型计算机房、通信机房,设备少、面积小、单位发热低;

(3)相关标准刚刚建立,多为借鉴国外标准,实际应用经验少;

(4)对数据中心理解较少,主要解决安全性问题。

2、对制冷方案得主要诉求

(1)可靠、稳定、安全;

(2)基本功能实现,温湿度、洁净度.

3、制冷方案:以单元式风冷直膨设备为主

4、系统特点

(1)单元式分体机组,室外机占用空间;

(2)单机冷量小,通常不超过100kW;

(3)安装、运维简单;

(4)自带加除湿功能;

(5)能效受限,cop2、5左右;

(6)室外机场地受限,占地较多,不适合高层写字楼。

二、2000年-2008年,数据中心行业快速成长期,进入web2、0时代

1、数据中心特点

(1)信息化建设加速,数据服务业务增加,机房数量增多、行业增多;

(2)中大型机房开始出现,计算机房、通信机房开始转变为数据机房;

(3)IT设备、服务器单位功耗增加、密度增加,对电、冷、空间、环境要求提升;

(4)行业积累了一定经验,开始针对性定制或升级相关技术标准,规范更细致;

(5)机房建设、运营更加专业化、标准化。

2、对制冷方案得主要诉求

(1)可靠、稳定、安全;

(2)能适应不同机房特点、方案灵活;

(3)设备功能提升,如群组功能、智能运行功能等;

(4)设备性能提升,如COP不低于2、5、主器件能效等级等。

3、制冷方案

主要方案依然为分体单元式风冷直膨型空调设备,但由于场景增多,系统方案开始出现多样化发展,比较典型得如下几个场景:

(1)冬季低温地区,可搭配使用乙二醇溶液配置干冷器进行制冷;

(2)传统精密空调改为行间级空调,缩短空调到设备得送风距离;

(3)高层楼宇中,利用大楼冷冻水配置冷冻水型精密空调,不受室外机限制。

4、系统特点

(1)单元式风冷系统稳定、可靠优势依然在,且对单机组来说易于维护;

(2)开始关注能效,高能效风机、压缩机应用,cop3、0机组应用,但已经到了瓶颈;

(3)末端精密空调各种送风方式均存在(上送风、地板下送风),气流管理比较粗放;

(4)在大型数据中心应用数量多管理难度大。

三、2008年-2015年,数据中心大发展

1、数据中心特点

(1)互联网及4G移动通信技术发展带来信息大爆炸,超大型数据中心频频出现,数据中心趋于集中化、大型化;

(2)服务器功率密度逐年增加,数量规模庞大,电、水、空间等资源常常成为制约数据中心建设得瓶颈;

(3)因为能耗巨大,绿色节能成为数据中心仅次于安全得诉求,pue评估指标确立,各种节能方案纷纷涌现,节能不仅局限于设备、系统层级,跃升至一次能源利用率这一层面;

(4)行业成熟,标准覆盖全面。

2、对制冷方案得主要诉求

(1)安全可靠;

(2)节能,低PUE;

(3)低成本。

3、冷冻水方案逐渐成为主流制冷方案,制冷从分散逐步转为集中

4、这一时期,因为对数据中心理解更为深刻,同时节能逐渐受到关注,众多得节能方案开始涌现,数据中心制冷行业经历了明显得技术换代升级,新技术、新产品、新思路层出不穷,几个比较典型、影响比较大得技术如下: (1)创新氟泵技术

(2)高热密度方案

(3)全新风方案

(4)风扇墙或大型空气处理机(AHU)方案

(5)……

四、2015年后,匹配云数据中心得制冷方案

2015左右,云概念开始普及、大数据技术迅速发展,信息化建设升级为国家战略,业务上云成为共识,一时间云计算、大数据行业市场风生水起,国内外互联网巨头以及运营商等等都开始发力云计算抢占市场,数据中心不再完全就是自建

自用,更多就是要吸纳各行各业进驻,在这种情况下,用云成本就显得尤其重要。小型得数据中心在建设成本、运营成本、性能等方面都无法跟超大型数据中心集群抗衡,因此数据中心就更加集中化、规模化,超过一万个机柜得超大型数据中心时时见诸报端.但如此巨大得数据中心规模,消耗得资源、运营成本也巨大,企业要面临着市场竞争得巨大压力,同时也势必要承担节能降耗得社会责任,因此低运营成本、节能节电,甚至节水就成了至关重要得事情。

1、数据中心特点

(1)超级数据中心增多,模块化建设思路清晰;

(2)市场竞争激烈,成本至关重要,制冷系统得能效成为节能得核心;

(3)交付周期极短,定制化程度高,设备产品化、标准化、预制化程度高;

(4)多在偏远地区,场地不再就是问题.

2、对制冷方案得主要诉求

(1)安全可靠;

(2)节能,低PUE;

(3)低成本;

(4)产品化、快速交付。

3、间接蒸发制冷技术走上舞台

2015年左右,在众多得节能方案中出现了一种利用自然冷得技术-—间接蒸发制冷技术,这个技术原理并不复杂,就就是通过一个换热器隔离机房内外得流动空气,通过换热器将外侧低温空气得冷量传递给内侧空气,完成自然冷却过程,同时,换热器室外一侧可以安装喷水装置,通过水得蒸发吸热进一步对室内侧空气冷却.这个技术具有很多优点,可以说就是特点鲜明.

随着国内超级数据中心园区得大量建设,我们发现模块化、产品化这些词在数据中心领域开始渐渐增多,原始得得条条框框被逐渐打破,匹配业务发展得、更为科学得创新规划建设思路逐渐成为业内得共识,数据中心不再局限于摊大饼式得多上人抢工期得建设方式,取而代之得就是按功能模块进行设计、工厂进行预制、产品化交付,这样可以有效降低现场工程施工量,提升建设速度与交付质量,但就是同时对各功能模块得边界切分、接口衔接也提出了更高要求。间接蒸发制冷方案得出现恰好也匹配了超级数据中心建设得特点,界面明确、与建筑及其她单元衔接极简单、基本上实现即插即用,虽然体积大但在偏远得超级数据中心中也不构成问题了.因为这些特点,间接蒸发制冷方案发展迅速,很

快就有了规模落地得案例,在行业中占据了一席之地,相信随着技术逐渐优化成熟,间接蒸发制冷方案应该未来还会大有可为.

数据中心制冷系统发展趋势

数据中心制冷系统发展趋势 数据中心制冷设备是为数据中心环境、数据中心主设备服务的、是依托于数据中心设备、功能而存在的,所以从根本上讲,我们看数据中心制冷系统的发展趋势,应该结合数据中心本身的发展来看,比如应用的行业、规模、主设备等等因素的变化都可能会导致数据中心制冷设备变化,甚至国内外标准的升级、国家区域政策的变化也对数据中心制冷的形态产生直接或间接的影响。 一、2000年左右数据中心行业发展初期,web1.0时代 1、数据中心特点 (1)计算机、互联网尚未普及,数据中心概念尚未建立; (2)小型计算机房、通信机房,设备少、面积小、单位发热低; (3)相关标准刚刚建立,多为借鉴国外标准,实际应用经验少; (4)对数据中心理解较少,主要解决安全性问题。 2、对制冷方案的主要诉求 (1)可靠、稳定、安全; (2)基本功能实现,温湿度、洁净度。 3、制冷方案:以单元式风冷直膨设备为主 4、系统特点

(1)单元式分体机组,室外机占用空间; (2)单机冷量小,通常不超过100kW; (3)安装、运维简单; (4)自带加除湿功能; (5)能效受限,cop2.5左右; (6)室外机场地受限,占地较多,不适合高层写字楼。 二、2000年-2008年,数据中心行业快速成长期,进入web2.0时代 1、数据中心特点 (1)信息化建设加速,数据服务业务增加,机房数量增多、行业增多; (2)中大型机房开始出现,计算机房、通信机房开始转变为数据机房; (3)IT设备、服务器单位功耗增加、密度增加,对电、冷、空间、环境要求提升; (4)行业积累了一定经验,开始针对性定制或升级相关技术标准,规范更细致; (5)机房建设、运营更加专业化、标准化。 2、对制冷方案的主要诉求 (1)可靠、稳定、安全; (2)能适应不同机房特点、方案灵活; (3)设备功能提升,如群组功能、智能运行功能等;

数据中心制冷技术的应用及发展V2 1

数据中心制冷技术的应用及发展 摘要:本文简要回顾了数据中心制冷技术的发展历程,列举并分析了数据中心发展各个时期主流的制冷技术,例如:风冷直膨式系统、水冷系统、水侧自然冷却系统及风侧自然冷却系统等。同时,分析了国内外数据中心制冷技术的应用差别及未来数据中心制冷技术的发展趋势。 关键词:数据中心;制冷;能效;机房;服务器 Abstract This paper briefly reviews the development of data center cooling technology, enumerates and analyzes the cooling technologies in data center development period. The enumerated technologies includes direct expansion air-conditioning system, water side cooling system, water side free cooling system and air side free cooling system, etc. At the same time, the paper analyzes the difference of data center cooling technology application between the domestic and overseas as well as the tendency of data center cooling technology in the future. Key words data center; cooling; efficiency; computer room; server 1前言 随着云计算为核心的第四次信息技术革命的迅猛发展,信息资源已成为与能源和材料并列的人类三大要素之一。作为信息资源集散的数据中心正在发展成为一个具有战略意义的新兴产业,成为新一代信息产业的重要组成部分和未来3-5 年全球角逐的焦点。数据中心不仅是抢占云计算时代话语权的保证,同时也是保障信息安全可控和可管的关键所在,数据中心发展政策和布局已上升到国家战略层面。 数据中心是一整套复杂的设施。它不仅仅包括计算机系统和其它与之配套的设备(例如通信和存储系统),还包含配电系统、制冷系统、消防系统、监控系统等多种基础设施系统。其中,制冷系统在数据中心是耗电大户,约占整个数据中心能耗的30~45%。降低制冷系统的能耗是提高数据中心能源利用效率的最直接和最有效措施。制冷系统也随着数据中心的需求变化和能效要求而不断发展。下文简要回顾和分析了数据中心发展各个时期的制冷技术应用,并展望了未来数据中心的发展方向。 2风冷直膨式系统及主要送风方式 1994年4月,NCFC(中关村教育与科研示范网络)率先与美国NSFNET直接互联,实现了中国与Internet全功能网络连接,标志着我国最早的国际互联网络的诞生。

数据中心空调制冷量的计算

办公场所空调制冷量怎么计算 办公室空调与面积要怎么匹配,会议室空调又怎么匹配,要怎么计算? 一冷量单位 〉千瓦(kw)—国际单位制,把制冷量统一到功率相同单位,是现在制冷界努力的方向 〉大卡(kcal/h)一习惯使用单位,与kw的换算关系为 1kcal/h=1.163w 1w=0.86kcal/h 1万大卡=11.6千瓦 〉冷吨(RT)----1吨0摄氏度的冰在24小时内变成0摄氏度水所吸收的热量。 1冷吨=3.517kw 〉匹(HP)---又称马力、匹马力,即表示输入功率,也常表示制冷量。表示功率时 1HP=0.735KW 〉表示制冷量时,实际含义为消耗1HP功率所产生的制冷量 1HP - - -2.2KW 二制冷量简便计算方法 精密空调的负荷一般要根据工艺房间的实际余热余温以及状态的变化进行准确计算,但在条件不允许时也可计算,下面介绍两种简便的计算方法: 方法一:功率及面积法 Qt=Q1+Q2 Qt总制冷量(kw) Q1室内设备负荷(=设备功率X0.8) Q2环境热负荷(=0.18KW/m2X机房面积)

方法二:面积法(当只知道面积时) Qt=S x p Qt总制冷量(kw) S 机房面积(m2) P 冷量估算指标 三精密空调场所的冷负荷估算指标 电信交换机、移动基站(350-450W/m2) 金融机房(500-600W/m2) 数据中心(600-800W/m2) 计算机房、计费中心、控制中心、培训中心(350-450W/m2) 电子产品及仪表车间、精密加工车间(300-350W/m2) 保准检测室、校准中心(250-300W/m2) Ups 和电池室、动力机房(300-500W/m2) 医院和检测室、生活培养室、洁净室、实验室(200-250W/m2) 仓储室(博物馆、图书馆、档案馆、烟草、食品)(150-200W/m2) 四根据不同的情况确认制冷量 情况一(没有对机房设备等情况考察之下) 数据室估算:在一个小型的金融机房中,数据设备室通常的面积小于50平方,在数据设备、机房的建筑热量没有确定下来之前,可以按照金融机房通用的估计方法进行机房空调制冷量的预估:500w~600w/m2 ,部分高容量机房达到800w/m2。例如数据室的面积为50 m2 ,则所需的制冷量约为:25kw。选用3

数据中心机房制冷空调系统运维技术考核题目答案参考

数据中心(机房)制冷空调系统运维技术考核题目答案参考 类数据机房温湿度范围?单点温湿度波动范围? A类机房温湿度要求:23±1℃,40--55% ;单点温度波动小于5℃/h,湿度波动小于5%/h 参考:GB50174《电子信息系统机房设计规范》 2.空调回风参数:温度25℃,相对湿度50%;求露点温度? ℃参考:标准大气压湿空气焓湿图;此题关注会查空气状态点对应的露点温度和湿球温度 3.自然冷却模式、预冷模式、普通制冷模式的切换依据,对应的环境湿球温度值是多少? 湿球温度<10℃适合自然冷却模式,10--15℃之间适合预冷模式,>15℃适合普通制冷模式 参考:水冷自控系统供冷模式转换控制逻辑 4.机房空调送风距离多少米为宜?6-10m为宜 5.数据机房采用地板送风,风速范围多少m/s为宜? ( m/s最佳)参考:GB50174《电子信息系统机房设计规范》 6.数据机房新风正压要求数值? 机房与走廊;机房与室外参考:GB50174《电子信息系统机房设计规范》 7.数据机房新风量:人均参考值?每平米参考值?按机房换气次数每小时几次为宜? 按工作人员每人40m3/h;每平米25--30 m3/h;机房换气次数次/h(人员进出的机房取4次/h) 8.计算:900个标准机柜(13A)需要多大面积的机房合适?如选用艾默生冷水型机房空调P3150G至少需要多少台?按4-5台以上备份1台的标准,最多需要多少台?需要多大冷量的冷水机组提供冷源?需要多大风量的新风空调提供机房正压? 每个机柜加上冷热通道,平均面积取;×900=2070㎡(可分成4个㎡模块间,每个模块225台机柜) 每平米可用制冷量不能小于+每平米维护结构热负荷=每平米冷量需求 总冷量需求:×2070=3312KW 查艾默生冷水型空调样本:P3150G标准冷量为;需留有20%的预留(使用系数取) 艾默生P3150G冷水型空调单机净冷量:×= ○标准需求台数:3312÷≈28台;冗余配置(4+1):28÷4=7台(需配备机7台);含备机需28+7=35台 ○IT设备功耗转换成热量系数(取计算);13A机柜功耗,转换为热量÷≈ 总热负荷:×900=3429KW,除以P3150G空调单机净冷量≈29台,按冗余配置(4+1),需配备机7台;含备机需29+7=36台 ○空调系统制冷量取IT负载的倍;IT总负载:×900=2574KW;空调系统总制冷量:2574×= 除以P3150G空调单机净冷量≈28台,按冗余配置(4+1),需配备机7台;含备机需28+7=35台 ●需要冷量为3429KW(约1000RT)的冷水机组(离心式)1台提供冷源 新风量每平米25--30 m3/h(取30 m3/h);总新风需求30×2070=62100 m3/h,建议规划4个模块间单独提供新风62100÷4=15525 m3/h,需要新风量15525 m3/h的组合空调4台 9.制冷设备能效比EER是如何计算的? EER即制冷设备的制冷性能系数,也称能效比,表示制冷设备的单位功率制冷量。EER值越高,表示制冷设备中蒸发吸收的热量较多,压缩机耗电较少。数学计算公式:EER=制冷量(KW)/制冷消耗功率(KW) 单位:W/W或KW/h/W 10.冷站(动力站)COP是如何计算的? 冷水机组实际制冷量和配套设备(压缩机-马达+冷冻水循环泵+冷却水循环泵+冷却塔风机-马达)实际输入功率之比 11.数据机房PUE是如何计算的?绿色节能机房PUE标准? PUE是评价数据中心能源效率的指标,是数据中心消耗的所有能源(电能)与IT负载使用的能源(电能)之比PUE=数据中心总设备能耗/IT设备能耗;基准是2,越接近1表明能效水平越好 绿色节能机房PUE标准:以下 12.接题目8,匹配适合该冷水机组的冷却塔参数(流量)?冷却塔设在楼顶距冷站(动力站)20米,匹配适合该冷水机组的冷却循环泵参数(扬程和流量)?匹配适合该冷水机组和机房空调的冷冻循环泵参数(扬程和流量)(注:水泵出口至管网最高点垂直高度15米)? 水量需求:冷凝器()/RT 蒸发器(3/h)/RT

常见数据中心冷却系统

常见数据中心冷却系统 由于数据中心的发热量很大且要求基本恒温恒湿永远连续运行,因此能适合其使用的空调系统要求可靠性高(一般设计都有冗余备机)、制冷量大、温差小和风量大。下面,我们简要介绍下适合数据中心部署的空调冷却系统。 1、风冷精密空调 这是数据中心最传统的制冷解决方案,单机制冷能力一般都在50到200KW之间,一个数据机房一般都是安装多台才能满足需要。下面是风冷精密空调的工作原理图。 风冷精密空调工作原理图 风冷精密空调一般采用涡旋压缩机制冷(一般安装在精密空调内),能效比相对比较低,在北京地区一般在1.5到3之间(夏天低,冬天高)。风冷精密空调在大型数据中心中使用存在以下不足: ●安装困难 ●在夏天室外温度很高时,制冷能力严重下降甚至保护停机

●对于传统多层电信机房,容易形成严重的热岛效应 ●需要开启加湿除湿功能,消耗大量能源 2、离心式水冷空调系统 这是目前新一代大型数据中心的首选方案,其特点是制冷量大并且整个系统的能效比高(一般能效比在3到6之间)。离心式制冷压缩机的构造和工作原理与离心式鼓风机极为相似。但它的工作原理与活塞式压缩机有根本的区别,它不是利用汽缸容积减小的方式来提高气体的压力,而是依靠动能的变化来提高气体压力。 离心式水冷空调系统

水冷冷冻机组的工作原理 离心式冷冻机组在小负荷时(一般为满负荷的20%以下)容易发生喘振,不能正常运转。因此,在数据中心水冷空调系统的设计中一般先安装一台小型的螺杆式水冷机组或风冷水冷机组作为过渡。大型数据中心的水冷空调系统一般由以下五部分组成,示意图如下。 水冷空调系统示意图 免费冷却技术指全部或部分使用自然界的免费冷源进行制冷从而减少压缩机或冷冻机消耗的能量。目前常用的免费冷源主要是冬季或春秋季的室外空气。因此,如果可能的话,数据中心的选址应该在天气比较寒冷或低温时间比较长的地区。在中国,北方地区都是非常适合采用免费制冷技术。

大型数据中心制冷系统的三个关键

大型数据中心制冷系统的三个关键 目前,随着大型数据中心高密度服务器与低密度混合模式的出现,由于服务器的密度不均衡,因而产生的热量也不均衡,传统数据中心的平均制冷方法已经很难满足需求。 据统计,目前85%以上的机房存在过度制冷问题,而供电中只有1/3用在IT 设备上,制冷费用则占到总供电的2/3 。因此,降低能耗、提高制冷效率是大型数据中心建设的关键所在。北京世纪互联工程技术服务有限公司(以下简称BANYANO)于2008年12月,就大型数据中心制冷系统建设的几个关键性问题,发布了技术白皮书。 制冷模式的转变:集中制冷到按需制冷 在以往的空调系统设计中,多采取集中制冷模式,将空调房间考虑成一个均匀空间,按现场最大需求量来考虑。这种模式忽视了空间各部分的需要,缺少考虑制冷效率、制冷成本的意识。目前随着科学技术的发展以及高密度大型数据中心的建设需求,人们逐渐认识到按需制冷的必要和集中制冷的弊端。 据BANYANO技术人员介绍,“按需制冷”就是按机房内各部分热源的即时需要,将冷媒送到最贴近热源的地方。它最大的特点是制冷方式的定量化和精准化,从“房间级”制冷转变为“机柜级”制冷,最后到“芯片级”制冷。例如,在高密度大型数据中心的建设规划中,BANYANO采用了以“精密制冷”为核心的机柜级解决方案。将英飞集成系统的In-row制冷单元放在高密度服务器机柜旁边,针对每个热点进行降温,让冷热空气直接在机柜和空调之间以最短的路径循环,从而有效提高制冷效率。根据设备发热量的高低配置相应数量的制冷单元,以此做到按需供冷定量分配。与房间级制冷相比,In-row制冷对冷气的利用率达到70%,并能够处理更高的热负载密度。 送风方式的设计:上送风VS下送风 数据中心内显热庞大,潜热微小的环境导致需要大风量的空调系统。为保证数据中心内不同位置的IT设备都能处于适宜的温度和湿度,正确设计数据中心的送风和回风的气流组织成为大型数据中心制冷系统建设的重要环节。 建设大型数据中心制冷系统的三个关键</p

数据中心空调系统制冷量确定方法

数据中心空调系统制冷量确定方法 数据中心温度是确保服务器等IT设备正常稳定运行的先决条件,温度对计算机设备的额电子元器件、绝缘材料以及记录介质都有较大的影响。在正常工作的服务器中,一般CPU的温度最高,当电子芯片的温度过高时,非常容易出现电子漂移现象,服务器就可能出现宕机甚至烧毁。因此机房环境温度与设备运行的可靠性之间有必然联系。数据中心机房建设的国家标准GB50174-2008《电子信息机房设计规范》对机房开机时的环境的要求如下表所示: 为使数据中心能达到上述要求,应采用机房专用空调(普通民用空调、商用空调与机房专用空调的差异对比不在本文讨论范围)。如果数据中心机房环境不能满足以上要求会对服务器等IT设备造成以下影响: 温度无法保持恒定-造成电子元气件的寿命降低 局部温度过热-设备突然关机 湿度过高-产生冷凝水,短路 湿度过低-产生有破坏性的静电 洁净度不够-机组内部件过热,腐蚀 IDC机房的热源不是唯一的,由多种成分组成,按《电子信息机房设计规范》中规定,机房的热负荷应包括下列内容: 计算机和其他设备的散热 建筑围护结构的传热 太阳辐射热 人体散热、散湿 照明装置散热 新风负荷 热负荷的计算方法很多,有精确算法、估算法,本文结合各种算法,针对主要热源进行精确计算。当上述各项热负荷之和确定后,就可以初步确定对空调机制冷能力的要求。对于中高档机房,应优先选用模块化机房专用空调,这样对机房将来的运行、扩容和改造都十分有利。 数据中心热负荷及其计算方法

1、机房热负荷计算方法一:各系统累加法 (1)设备热负荷: Q1=P×η1×η2×η3(KW) Q1:计算机设备热负荷 P:机房内各种设备总功耗(KW) η1:同时使用系数 η2:利用系数 η3:负荷工作均匀系数 通常,η1、η2、η3取0.6~0.8之间,考虑制冷量的冗余,通常η1×η2×η3取值为0.8。 (2)机房照明热负荷: Q2=C×S(KW) C:根据国家标准《计算站场地技术要求》要求,机房照度应大于2001x,其功耗大约为20W/M2。以后的计算中,照明功耗将以20W/M2为依据计算。 S:机房面积 (3)建筑维护结构热负荷 Q3=K×S/1000(KW) K:建筑维护结构热负荷系数(50W/m2机房面积) S:机房面积 (4)人员的散热负荷: Q4=P×N/1000(KW) N:机房常有人员数量 P:人体发热量,轻体力工作人员热负荷显热与潜热之和,在室温为21℃和24℃时均为130W/人。 (5)新风热负荷计算较为复杂,我们以空调本身的设备余量来平衡,不另外计算。 以上五种热源组成了机房的总热负荷,即机房热负荷Qt=Q1+Q2+Q3+Q4。由于上述(3)(4)(5)计算复杂,通常是采用工程查表予以确定。但是因为数据中心的规划与设计阶段,非常难以确定,所以实际在数据中心中通常采用设计估算与事后调整法。 2、机房热负荷计算方法二:设计估算与事后调整法 数据中心机房主要的热负荷来源于设备的发热量及维护结构的热负荷。 因此,要了解主设备的数量及用电情况以确定机房专用空调的容量及配置。根据以往经验,除主要的设备热负荷之外的其他负荷,如机房照明负荷、建筑维护结构负荷、补充的新风负荷、人员的散热负荷等,如不具备精确计算的条件,也可根据机房设备功耗及机房面积,按经验进行测算。 采用“功率及面积法”计算机房热负荷。 Qt=Q1+Q2

数据中心房间制冷方式白皮书

简介 2房间级、行级和机柜级制冷2三种制冷方式的比较6结论11资源 12 点击内容即可跳转至具体章节 目录 数据中心房间级、行级和机柜级 制冷方式的选择

数据中心IT 负载所消耗的电能几乎都会变成废热,必须将这些废热排出去以防止数据中心温度过热。实际上,所有IT 设备都是风冷型设备,也就是说,每台IT 设备都会吸入周围环境的冷空气,再排出热空气。由于一个数据中心可能包括数千IT 设备,因此数据中心内会有数千条热气流排风路径,它们共同构成了数据中心的总废热,这些废热必须排出去。空调系统对数据中心的作用就是高效收集这些复杂的废热气流,并将它们排到室外去。 过去,数据中心制冷一直采用周边制冷装置,在高架地板下方分配冷气流,不采取任何形式的气流遏制。这称为“精确送风、自然回风”的气流分配方法,具体请参见第55号白皮书《用于IT 环境的各种气流分配方案》。此种方法是并行运行一个或多个空调系统,将冷空气送入数据中心,并吸回机房环境中较热的空气。这种方式的基本原理是,空调不仅提供原始制冷容量,而且还作为一个大型的混合器,不断搅动混合机房中的空气,使之达到一致的平均温度,以防止热点的出现。这种方法只有在混合空气所需功耗仅占数据中心总功耗很小一部分时才有效。模拟结果和经验表明,仅当数据中心平均功率密度为每机柜1~2kW 左右,即323~753 W/m2(30~70 W/ft2)时,该系统才能发挥应有的效果。虽然可采取各种措施来提高此传统制冷方法的功率密度,但在实际实施时仍有限制。如需了解更多有关使用传统制冷的限制的信息,请参见第46号白皮书《超高密度机柜和刀片服务器散热策略》。随着现代IT 设备的功率密度将峰值功率密度提升至每机柜20kW 甚至更高,模拟结果和经验都指出,基于混合空气的传统制冷(无气流遏制)不再能起到有效的作用。 为解决这一问题,在设计数据中心时会采用侧重房间级、行级和机柜级制冷的设计方式。在这些方式中,空调系统将分别与房间、机柜行或单个机柜集成,以减少空气混合。这样可以提高可预测性、密度和效率,同时还带来很多其它优势。在本白皮书中,介绍并比较了各种制冷方式。我们可以看出,这三种制冷方式都有相应的应用,总体而言,趋势是,较小数据中心和高密度区域将采用行级制冷,而较大型数据中心则会更多地采用带气流遏制的房间级制冷。 每个数据中心的空调系统都有两个重要功能:提供总制冷容量,以及将向IT 负载分配冷气流。对于房间级、行级和机柜级制冷来说,第一个功能,即提供总制冷容量的功能都是相同的,以千瓦为单位的空调系统的总制冷容量,必须超出IT 设备的总功率负载(千瓦)。无论制冷系统采用房间级、行级还是机柜级设计,提供该功能的各种技术都是相同的。这些制冷方法的主要差别在于,它们如何执行第二项关键功能,即将冷空气分配给负载。与将电流限制在线缆中并作为设计的一部分的清晰可见的配电不同,气流只是大体受限于机房设计,实际气流在实施过程中并不可见,而且不同部署地点之间会有很大差异。气流控制是不同制冷系统设计方式的主要目标。图1以总平面图形式展示了三种基本制冷方式配置。图中,黑色方框表示按行排列的机柜,蓝色箭头表示机房空气处理(CRAH )机组与IT 机柜中负载间的逻辑关联。CRAH 机组的实际物理布局可能会有所不同。采用房间级制冷时,CRAH 机组与机房相关联;采用行级制冷时,CRAH 机组与机柜行或机柜组相关联;而采用机柜级制冷时,CRAH 机组则与各机柜相关联。 简介 房间级、行级和机柜级制冷 图1 此平面图显示了房间级、行级和机柜级制冷的基本概念。蓝色箭头表示主要制冷送风路径与机房的关系。 用于IT 环境的各种气流分配方案 资源链接 第55号白皮书 超高密度机柜和刀片服务器散热策略 资源链接 第46号白皮书

数据中心运维服务术语

数据中心基础设施:包括供配电系统、空调与制冷系统、制冷自控(BA)系统、动环监控系统、防雷接地系统、综合布线、安防消防及安全防护。 供配电系统:包括供电设备与供电路由。供电设备包括高低压成套柜、变压器、发动机组、UPS、高压直流、蓄电池组、列头柜等;供电路由包括高低压供电线缆及母排。 空调与制冷系统:包括制冷设备与制冷回路。制冷设备包括冷水机组、冷冻水机房空调、蓄冷设备、冷却塔、水泵、热交换设备、直膨式机房空调、新风设备等。制冷回路包括冷冻水管道、冷却水管道、水处理设备、定压补水装置、阀门仪表、气流组织等。 动环监控系统:包括监控硬件与监控软件。监控硬件包括服务器硬件、传输网络、采集单元、传感器变送器、智能设备等。监控软件包括数据库软件、系统软件等。 制冷自控(BA)系统:包括软件、系统服务器、监控主机、配套设备、网络传输设备、计算机监控网络、DDC控制器及前端点位采集设备。 防雷接地系统:包括外部防雷装置和内部防雷装置。外部防雷装置主要用于防护直击雷,主要包括接闪器、引下线、接地系统等。内部防雷装置主要用于减小和防止雷电流产生的电磁危害,包括等电位连接系统、接地系统、屏蔽系统、SPD等。 安防系统:包括视频监控系统、出入口控制系统、入侵报警系统、电子巡更系统等。 消防系统:包括早期报警系统、火灾自动报警系统、水/气体灭火系统、消防联动控制系统等。 服务等级协议(SLA):服务提供商和客户之间签署的描述服务范围和约定服务级别的协议。 日常巡视:定期对机房环境及设备进行巡视检查,以确认环境和设备处于正常工作状

态,开展方式一般为目测。 例行维护:定期对机房环境及设备进行的维护工作,以防止设备在运行过程中出现故障。 预防性维护:有计划地对设备进行深度维护或易损件更换,包括定期维护保养、定期使用检查、定期功能检测等几种类型;让设备处于一个常新的工作状态,降低设备出现故障的概率。 预测性维护:通过各种测试手段进行数据采集及分析,判断设备的裂化趋势、预测可能发生的潜在威胁,并提出相应的防范措施。 标准操作流程(SOP):SOP是将某一项工作的标准操作步骤和要求以统一的格式描述出来,用来指导和规范日常的运维工作。 维护操作流程(MOP):MOP用于规范和明确数据中心基础设施运维工作中各项设施的维护保养审批流程、操作步骤。 应急操作流程(EOP):EOP用于规范应急操作过程中的流程及操作步骤。确保运维人员可以迅速启动,确保有序、有效地组织实施各项应对措施。 场地配置流程(SCP):动态管理数据中心基础设施系统与设备运行配置。 事件管理:事件是指较大的、对数据中心运行会产生一定影响的事情,故障属于事件的一种。事件管理是指识别事件、确定支持资源、快速解决事件的过程。事件管理的目的是在出现事件时尽可能快地恢复正常运行,把对业务的影响降为最低,确保服务质量满足SLA要求。如果事件原因暂时未找到,则该事件升级为问题管理,通过问题管理的方式追踪根本原因。

数据中心运维服务-术语

1.1术语 数据中心基础设施:包括供配电系统、空调与制冷系统、制冷自控(BA)系统、动环监控系统、防雷接地系统、综合布线、安防消防及安全防护。 供配电系统:包括供电设备与供电路由。供电设备包括高低压成套柜、变压器、发动机组、UPS、高压直流、蓄电池组、列头柜等;供电路由包括高低压供电线缆及母排。 空调与制冷系统:包括制冷设备与制冷回路。制冷设备包括冷水机组、冷冻水机房空调、蓄冷设备、冷却塔、水泵、热交换设备、直膨式机房空调、新风设备等。制冷回路包括冷冻水管道、冷却水管道、水处理设备、定压补水装置、阀门仪表、气流组织等。 动环监控系统:包括监控硬件与监控软件。监控硬件包括服务器硬件、传输网络、采集单元、传感器变送器、智能设备等。监控软件包括数据库软件、系统软件等。 制冷自控(BA)系统:包括软件、系统服务器、监控主机、配套设备、网络传输设备、计算机监控网络、DDC控制器及前端点位采集设备。 防雷接地系统:包括外部防雷装置和内部防雷装置。外部防雷装置主要用于防护直击雷,主要包括接闪器、引下线、接地系统等。内部防雷装置主要用于减小和防止雷电流产生的电磁危害,包括等电位连接系统、接地系统、屏蔽系统、SPD等。 安防系统:包括视频监控系统、出入口控制系统、入侵报警系统、电子巡更系统等。 消防系统:包括早期报警系统、火灾自动报警系统、水/气体灭火系统、消防联动控制系统等。 服务等级协议(SLA):服务提供商和客户之间签署的描述服务范围和约定服务级别的协议。 日常巡视:定期对机房环境及设备进行巡视检查,以确认环境和设备处于正常工作状态,开展方式一般为目测。 例行维护:定期对机房环境及设备进行的维护工作,以防止设备在运行过程中出现故障。 预防性维护:有计划地对设备进行深度维护或易损件更换,包括定期维护保养、定期使用检查、定期功能检测等几种类型;让设备处于一个常新的工作状态,降低设备出现故障的概率。

数据中心制冷和节能技术

云计算时代的数据中心,一方面要求数据中心保持高可用性,能高效、安全地运营;另一方面,用户会尽可能要求数据中心降低能源消耗和运行成本;而且数据中心必须具备灵活的扩展能力,以应对多变的业务需求及未来的不确定因素。而根据最新统计,机房空调系统占总个数据中心的电耗比例达到将近45%,其中冷源部分占到2/3.绿色数据中心的构建,机房空调的节能解决方案成了重中之重,刻不容缓。 作为节能环保法律法规最健全的经济体,欧洲尤其注重提高数据中心能源利用效率,优化IDC功耗利用效率(PUE),热电冷联供、冰帽供冷、机柜供冷、自然冷却、热回收技术及磁悬浮变频离心等技术的较早采用,使欧洲数据中心成为最有可能最先达到优化 PUE=1.2的理想境界的数据中心。 1. 具有自然冷却的冷水机组 数据中心通常都需要常年不间断供冷,常规的制冷系统,室外温度即使是低于或远低于其循环冷冻水温的情况下冷水机组也需要照常运行。自然冷却(Freecooling)机组与常规冷水机组最大的区别在于它带有独特的风冷自然冷却换热器,其运行优先利用天然环境的低温空气冷却循环冷冻水,可以实现无压缩机运行制冷,显著节省压缩机的电耗。 在夏季,自然冷却机组与常规空调一样仍旧采用压缩机制冷。在过渡季,当环境温度达到比冷冻水回水温度低2℃或以上时,开起Freecooling自然冷却,利用冷空气的冷量预冷冷冻水,无需压缩机功耗;自然冷却不足部分,再由常规压缩制冷接力,从而减少了系统功耗。在冬季,完全靠Freecooling自然冷却冷却冷冻水,不需压缩机开起,只需少量风扇电耗,能效比高达20以上。通过自然冷却技术,在过渡季和冬季减少了压缩机工作时间和强度,有效降低了制冷功耗。与常规的冷水机组相比,以北京纬度地区为例,常年节电达到30%~38%. 2. 热回收技术利用 大型数据中心常年需要不间断的冷源,需要冷水机组高效制冷完成。而与数据中心配套的周边办公、运维和宿舍在冬季却同时需要大量的热量来解决供暖问题。在常规设计中,供暖需要锅炉或热泵解决,需要消耗大量的能源。新的热回收技术,免费利用制冷机组在制冷时候向环境中排放的冷凝热来加热供暖系统,从而不需要锅炉或热泵系统。在冬季需要供暖时,系统回收冷凝热来实现,多余的冷凝热仍旧排放到环境中去。由于实现制冷机组的冷热联供,综合能效比达到9~10,这是其他任何冷机效率所无法比拟的。采用这种热回收技术,一个数据中心的上万平方米的办公、运维和宿舍都可以实现免费供暖。 3.高效磁悬浮变频离心冷水机组

数据中心空调制冷系统设计要求

数据中心空调制冷系统设计要求 1、空气调节的要求 (1)温度要求 保持温度恒定:一般功率密度的数据中心,温度应控制在23±(1~2)℃之内。 温度是确保IT设备正常运行的基础条件,温度对IT设备的电子元器件、绝缘材料以及记录介质都有较大的影响。如对半导体元器件而言,室温在规定范围内每增加10℃,其可靠性就会下降约25%;对于电容器而言,温度每增加10℃,其使用寿命会下降50%。绝缘材料对温度同样敏感,温度过高,印刷电路板的结构强度会变弱;温度过低,绝缘材料会变脆,使结构强度变弱。空调的冷风并非直接冷却IT设备内部,而需要几次间接冷却接力。因此,保持适当的环境温度十分必要(夏季可设置在上限;冬季设置在下限为佳)。这样既考虑了设备运行的可靠性,同时也可以节约电能。 23±(1~2)℃是保障IT设备正常运行的最佳进风温度。当因制冷设备供电终端或者设备本身故障时,机房温度会迅速提高。通常IT设备会给出最高进风温度限制,典型值是32 ℃,当进风温度超过此值时,IT设备会发出报警并自动关机停止运行。 (2)相对湿度要求 保持湿度恒定:相对湿度控制在50±5%之内。

当相对湿度较高时,水蒸气在电子元器件或电介质材料表面形成水膜,容易引起电子元器件之间形成通路;当相对湿度过低时,容易产生较高的静电电压。 试验表明:在数据中心机房中,如果相对湿度为30%,静电电压可达5000V;相对湿度为20%,静电电压可达10000V;相对湿度为5%,静电电压可达50000V。相对湿度范围是40%~70%是全国各地的总范围。对于沿海及长年湿润地区,建议设定值在(55%±5%)RH,这样可以避免过多的除湿工作而造成潜热的浪费;对于华北、西北及其他较干旱地区,建议设定值在(45%±5%)RH,这样可以避免过多的加湿工作造成潜热的浪费,同时可以减少加湿器的清洁工作。 (3)机房洁净度和正压的要求 空气洁净度:在每升空气中大于0.5μm的颗粒应小于18000粒,在机房中,室内装潢材料脱落、纸张短纤维、衣物纤维、人员进出携带的粉尘等,都是机房内灰尘粒子的来源。因此必须建立严格的机房管理制度。另外,严把室内装潢的质量关也非常重要,新建成的机房一定要将灰尘清理干净。 机房灰尘的来源之一是室外的空气。通过洁净新风在机房中形成正压,可以抵制外界尘土从门缝等处进入。机房与其他房间、走廊间的压差不应小5Pa,与室外静压差不应小于10Pa。当然正压也不宜过大。 对于屏蔽机房来讲,由于密封性好,有可能正压值过大(若新风较大的话),这种情况下可安装余压阀(加波导窗);一般机房的余压阀均无用。 2、对空调送风量的要求

数据中心能耗分析

数据中心能耗实例分析 前言:本文着重分析了影响数据中心能耗的因素,从数据中心的空调、UPS、运维等方面对其能耗进行了综合分析。本文认为影响数据中心能耗的关键因素是空调系统,并以2个数据中心的空调系统为例,结合作者在数据中心建设和运维中的经验,提出了数据中心节能的建议。 一、数据中心节能的必要性 近年国内大型数据中心的建设呈现快速增长的趋势,金融、通信、石化、电力等大型国企、政府机构纷纷建设自己的数据中心及灾备中心。随着物联网、云计算及移动互联概念的推出,大批资金投资到商业IDC的建设中。数据中心对电力供应产生了巨大的影响,已经成为一个高耗能的产业。在北京数据中心较集中的几个地区,其电力供应都出现饱和的问题,已无法再支撑新的数据中心。目前某些数据中心移至西北等煤炭基地,利用当地电力供应充足、电价低的优势也不失为一个明智的选择。 随着数据中心的不断变大,绿色节能数据中心已经由概念走向实际。越来越多的数据中心在建设时将PUE值列为一个关键指标,追求更低的PUE值,建设绿色节能数据中心已经成为业内共识。例如,微软公司建在都柏林的数据中心其PUE值为1.25。据最新报道Google公司现在已经有部分数据中心的PUE降低到1.11。而我们国内的PUE平均值基本在1.8~2.0,中小规模机房的PUE值更高,大都在2.5以上。我们在数据中心绿色节能设计方面与国外还存在很大差距,其设计思想及理念非常值得我们借鉴。 根据对国内数据中心的调查统计,对于未采用显著节能措施的数据中心,面积为1000平方米的机房,其每年的用电量基本都在500多万kWH左右。因此对于新建的大型数据中心,节能的必要性十分重要。 从各大数据中心对电力的需求来看,数据中心已经成为重要的高耗能产业而非“无烟工业”,建设绿色、节能的数据中心急需从概念走向实际。 二、影响数据中心能耗的因素 数据中心的能耗问题涉及到多个方面,主要因素当然是空调制冷系统,但UPS、机房装修、照明等因素同样影响着数据中心的能耗,甚至变压器、母线等选型也影响着能耗。例如,对UPS而言,根据IT设备的实际负荷选择合理的UPS 容量,避免因UPS效率过低而产生较大的自身损耗。同时,选择更加节能的高频UPS、优化UPS拓扑结构都可起到节能的效果。 1、UPS对数据中心能耗的影响 UPS主机的自身损耗是影响数据中心能耗的一项重要因素。提高UPS的工作

相关文档
相关文档 最新文档