文档库 最新最全的文档下载
当前位置:文档库 › 高密度数据中心连续制冷解决方案探讨

高密度数据中心连续制冷解决方案探讨

高密度数据中心连续制冷解决方案探讨
高密度数据中心连续制冷解决方案探讨

数据中心节能方案

数据中心的制冷系统节能方案 对于数据中心,制冷系统通常按照其满负载,高室外温度的最恶劣情况进行设计。当数据中心负载较少且室外凉爽时,系统必须降低功率以减少向数据中心供冷。然而,制冷机组的各种装置在这种情况下利用相当不充分并且工作效率极低。为了提高在这种情况下的工作效率,制冷装置经过改进,配置了变频调速驱动、分级控制或者其他功能。但是,仍然非常耗能。于是,工程师开始利用他们的知识与智慧,想法设法降低数据中心电力消耗,由此节能冷却模式应运而生。今天,我们就对数据中心的几种节能冷却模式进行一下总结。 做过数据中心的暖通工程师在听到节能冷却模式的时候,首先想到的应该就是“风侧节能冷却”和“水侧节能冷却”,这两个术语常被用来形容包含节能制冷模式的制冷系统。本期重点讨论风侧节能冷却模式。 1.直接风侧节能冷却模式 当室外空气条件在设定值范围内时,直接风侧节能冷却模式利用风机和百叶从室外经过过滤器抽取冷风直接送入数据中心。百叶和风阀可以控制热风排到室外的风量以及与数据中心送风的混合风量以保持环境设定温度。在与蒸发辅助一起使用时,室外空气在进入数据中心前需要先穿过潮湿的网状介质,在一些干燥地区,蒸发辅助可以使温度降低高达十几摄氏度,充分延长节能冷却模式的可用时间。

需要注意的是,这种类型的节能冷却模式在结合蒸发辅助使用时会增加数据中心的湿度,因为直接送入数据中心的新风会先经过蒸发环节。所以蒸发辅助在干燥气候环境下优势最大。如果是较为潮湿的天气环境,则应结合投资回报率评估是否使用蒸发辅助,因此所额外消耗掉的能源可能会抵消节能冷却模式所节能的能源,得不偿失。另外,此种的节能模式尽管送风已经经过过滤,但是并不能完全消除微粒,比如防止烟雾和化学气体,进入数据中心。 2.间接风侧节能冷却模式 当室外空气条件在设定值范围内时,间接风侧节能冷却模式利用室外空气间接为数据中心制冷。板换热交换器、热轮换热器和热管是三种常见的隔离技术,可隔离室外湿度的影响并防止室外污染物进入IT 空间。在这三种技术中,板换热交换器在数据中心中的应用最为普遍。 基于空气热交换器的间接节能冷却方法使用风机将室外冷风吹到一组板换或盘管上面,冷却穿过板换或盘管的数据中心内的热空气,将数据中心内的空气与室外空气完全隔离。这种类型的节能冷却模式也可以与蒸发辅助结合使用,向板换或盘管的外表面喷水以便进一步降低室外空气的温度,从而冷却数据中心内的热回风。与直接新风节能冷却模式不同,蒸发辅助不会增加IT 空间内的湿度,但需要补充少量新风。

数据中心制冷系统发展趋势

数据中心制冷系统发展趋势 数据中心制冷设备是为数据中心环境、数据中心主设备服务的、是依托于数据中心设备、功能而存在的,所以从根本上讲,我们看数据中心制冷系统的发展趋势,应该结合数据中心本身的发展来看,比如应用的行业、规模、主设备等等因素的变化都可能会导致数据中心制冷设备变化,甚至国内外标准的升级、国家区域政策的变化也对数据中心制冷的形态产生直接或间接的影响。 一、2000年左右数据中心行业发展初期,web1.0时代 1、数据中心特点 (1)计算机、互联网尚未普及,数据中心概念尚未建立; (2)小型计算机房、通信机房,设备少、面积小、单位发热低; (3)相关标准刚刚建立,多为借鉴国外标准,实际应用经验少; (4)对数据中心理解较少,主要解决安全性问题。 2、对制冷方案的主要诉求 (1)可靠、稳定、安全; (2)基本功能实现,温湿度、洁净度。 3、制冷方案:以单元式风冷直膨设备为主 4、系统特点

(1)单元式分体机组,室外机占用空间; (2)单机冷量小,通常不超过100kW; (3)安装、运维简单; (4)自带加除湿功能; (5)能效受限,cop2.5左右; (6)室外机场地受限,占地较多,不适合高层写字楼。 二、2000年-2008年,数据中心行业快速成长期,进入web2.0时代 1、数据中心特点 (1)信息化建设加速,数据服务业务增加,机房数量增多、行业增多; (2)中大型机房开始出现,计算机房、通信机房开始转变为数据机房; (3)IT设备、服务器单位功耗增加、密度增加,对电、冷、空间、环境要求提升; (4)行业积累了一定经验,开始针对性定制或升级相关技术标准,规范更细致; (5)机房建设、运营更加专业化、标准化。 2、对制冷方案的主要诉求 (1)可靠、稳定、安全; (2)能适应不同机房特点、方案灵活; (3)设备功能提升,如群组功能、智能运行功能等;

数据中心制冷技术的应用及发展V2 1

数据中心制冷技术的应用及发展 摘要:本文简要回顾了数据中心制冷技术的发展历程,列举并分析了数据中心发展各个时期主流的制冷技术,例如:风冷直膨式系统、水冷系统、水侧自然冷却系统及风侧自然冷却系统等。同时,分析了国内外数据中心制冷技术的应用差别及未来数据中心制冷技术的发展趋势。 关键词:数据中心;制冷;能效;机房;服务器 Abstract This paper briefly reviews the development of data center cooling technology, enumerates and analyzes the cooling technologies in data center development period. The enumerated technologies includes direct expansion air-conditioning system, water side cooling system, water side free cooling system and air side free cooling system, etc. At the same time, the paper analyzes the difference of data center cooling technology application between the domestic and overseas as well as the tendency of data center cooling technology in the future. Key words data center; cooling; efficiency; computer room; server 1前言 随着云计算为核心的第四次信息技术革命的迅猛发展,信息资源已成为与能源和材料并列的人类三大要素之一。作为信息资源集散的数据中心正在发展成为一个具有战略意义的新兴产业,成为新一代信息产业的重要组成部分和未来3-5 年全球角逐的焦点。数据中心不仅是抢占云计算时代话语权的保证,同时也是保障信息安全可控和可管的关键所在,数据中心发展政策和布局已上升到国家战略层面。 数据中心是一整套复杂的设施。它不仅仅包括计算机系统和其它与之配套的设备(例如通信和存储系统),还包含配电系统、制冷系统、消防系统、监控系统等多种基础设施系统。其中,制冷系统在数据中心是耗电大户,约占整个数据中心能耗的30~45%。降低制冷系统的能耗是提高数据中心能源利用效率的最直接和最有效措施。制冷系统也随着数据中心的需求变化和能效要求而不断发展。下文简要回顾和分析了数据中心发展各个时期的制冷技术应用,并展望了未来数据中心的发展方向。 2风冷直膨式系统及主要送风方式 1994年4月,NCFC(中关村教育与科研示范网络)率先与美国NSFNET直接互联,实现了中国与Internet全功能网络连接,标志着我国最早的国际互联网络的诞生。

数据中心空调制冷量的计算

办公场所空调制冷量怎么计算 办公室空调与面积要怎么匹配,会议室空调又怎么匹配,要怎么计算? 一冷量单位 〉千瓦(kw)—国际单位制,把制冷量统一到功率相同单位,是现在制冷界努力的方向 〉大卡(kcal/h)一习惯使用单位,与kw的换算关系为 1kcal/h=1.163w 1w=0.86kcal/h 1万大卡=11.6千瓦 〉冷吨(RT)----1吨0摄氏度的冰在24小时内变成0摄氏度水所吸收的热量。 1冷吨=3.517kw 〉匹(HP)---又称马力、匹马力,即表示输入功率,也常表示制冷量。表示功率时 1HP=0.735KW 〉表示制冷量时,实际含义为消耗1HP功率所产生的制冷量 1HP - - -2.2KW 二制冷量简便计算方法 精密空调的负荷一般要根据工艺房间的实际余热余温以及状态的变化进行准确计算,但在条件不允许时也可计算,下面介绍两种简便的计算方法: 方法一:功率及面积法 Qt=Q1+Q2 Qt总制冷量(kw) Q1室内设备负荷(=设备功率X0.8) Q2环境热负荷(=0.18KW/m2X机房面积)

方法二:面积法(当只知道面积时) Qt=S x p Qt总制冷量(kw) S 机房面积(m2) P 冷量估算指标 三精密空调场所的冷负荷估算指标 电信交换机、移动基站(350-450W/m2) 金融机房(500-600W/m2) 数据中心(600-800W/m2) 计算机房、计费中心、控制中心、培训中心(350-450W/m2) 电子产品及仪表车间、精密加工车间(300-350W/m2) 保准检测室、校准中心(250-300W/m2) Ups 和电池室、动力机房(300-500W/m2) 医院和检测室、生活培养室、洁净室、实验室(200-250W/m2) 仓储室(博物馆、图书馆、档案馆、烟草、食品)(150-200W/m2) 四根据不同的情况确认制冷量 情况一(没有对机房设备等情况考察之下) 数据室估算:在一个小型的金融机房中,数据设备室通常的面积小于50平方,在数据设备、机房的建筑热量没有确定下来之前,可以按照金融机房通用的估计方法进行机房空调制冷量的预估:500w~600w/m2 ,部分高容量机房达到800w/m2。例如数据室的面积为50 m2 ,则所需的制冷量约为:25kw。选用3

绿色数据中心空调系统设计方案

绿色数据中心空调系统设计方案 北京中普瑞讯信息技术有限公司(以下简称中普瑞讯),是成立于北京中关村科技园区的一家高新技术企业,汇集了多名在硅谷工作过的专家,率先将机房制冷先进的氟泵热管空调系统引进到中国。 氟泵热管空调系统技术方案适用于各种IDC机房,通信机房核心网设备,核心机房PI路由器等大功率机架;中普瑞讯对原有的产品做了优化和改良,提高节能效率的同时大大降低成本。 中普瑞讯目前拥有实用专有技术4项、发明专有技术2项;北京市高新技术企业;合肥通用所、泰尔实验室检测报告;中国移动“绿色行动计划”节能创新合作伙伴,拥有国家高新企业资质。 中普瑞讯的氟泵热管空调系统技术融合了结构简单、安装维护便捷、高效安全、不受机房限制等诸多优点,目前已在多个电信机房得到实地应用,取得广大用户一致认可,并获得相关通信部门的多次嘉奖。 中普瑞讯的ZP-RAS氟泵热管背板空调系统专门用于解决IDC高热密度机房散热问题,降低机房PUE值,该系统为采用标准化设计的新型机房节能产品,由以下三部分组成。

第一部分,室内部分,ZP-RAS-BAG热管背板空调。 第二部分,室外部分,ZP-RAS-RDU制冷分配单元。 第三部分,数据机房环境与能效监控平台。 中普瑞讯的ZP-RAS氟泵热管背板空调体统工作原理:室外制冷分配单元(RDU)机组通过与系统冷凝器(风冷、水冷)完成热交换后,RDU通过氟泵将冷却后的液体冷媒送入机房热管背板空调(BGA)。 冷媒(氟利昂)在冷热温差作用下通过相变实现冷热交换,冷却服务器排风,将冷量送入机柜,同时冷媒受热汽化,把热量带到RDU,由室外制冷分配单元(RDU)与冷凝器换热冷却,完成制冷循环。 1.室外制冷分配单元(RDU)分为风冷型和水冷型两种。制冷分配单元可以灵活选择安装在室内或室外。室外RDU可以充分利用自然冷源自动切换工作模式,当室外温度低于一定温度时,可以利用氟泵制冷,这时压缩机不运行,充分利用自然免费冷源制冷,降低系统能耗,同时提高压缩机使用寿命。 北方地区以北京为例每年可利用自然冷源制冷的时间占全年一半以上左右。从而大大降低了机房整体PUE值,机房PUE值可控制在较低的数值。 2.热管背板空调(ZP-RAS-BGA)是一种新型空调末端系统,是利用分离式热管原理将空调室内机设计成机柜背板模

英维克:数据中心高效制冷整体解决方案

龙源期刊网 https://www.wendangku.net/doc/972463541.html, 英维克:数据中心高效制冷整体解决方案 作者: 来源:《中国计算机报》2013年第15期 深圳市英维克科技有限公司(以下简称英维克)作为专注于机房与设备环境控制技术的国家级高新技术企业,掌握着世界领先的制冷系统核心技术、控制技术、结构设计技术,拥有多项专利。作为中国通信行业标准化协会全权会员单位,英维克参与了多个数据中心空调标准的起草和修订。作为中国数据中心工作组《数据中心空调系统应用技术白皮书》的主要起草人单位,英维克对数据中心制冷及节能方案,体现出深刻的理解,在数据中心空调技术的发展应用领域,展现出了强大的实力。英维克数据中心高效制冷方案和产品,获选数据中心“2012年度优秀解决方案奖”及通信行业“2012年度节能卫士奖”。针对不同的应用环境与需求,英维克为数据中心进行科学的制冷规划,并推出高效制冷整体解决方案。 1. 大型、中型数据中心高效制冷与自然冷却系统:对于新建数据中心,应用集成iFreecooling间接自然冷却技术的CyberMate(双循环)高能效空调系统,冬季可停止压缩机运行,通过制冷剂泵实现高效安全自然冷却。机组设计为高效涡旋压缩机、EC风机、电子膨胀阀、高效制冷剂泵等高效高可靠性器件,充分实现了制冷系统的高可靠性、高节能性。该解决方案和产品已经被中国联通、中国电信等客户广泛应用并推广,与常规机房专用空调系统比较,北方地区全年节能率超过40%,可充分降低数据中心全年PUE值。 对于在用数据中心,可通过英维克iFreecooling自适应多联(双循环)空调系统进行节能改造,通过制冷剂泵自适应多联循环,利用制冷剂相态变化,在低温季节充分利用自然冷源,根据室外温度条件以及室内热负荷情况自动判断启动或停止空调系统的压缩机运行以及室外冷凝器运行,通过iFreecooling系统的制冷剂的相态变化,实现高效自然冷却。iFreecooling启动时,能够减少约96%的压缩机能耗、超过25%的冷凝器能耗,整机节能率超过70%。该解决 方案和产品已经被中国移动、中国石油等客户广泛应用和推广,实现空调系统全年节能35%以上,机房节能15%以上。 2. 高热密度数据中心、模块化及集装箱数据中心的高效制冷与自然冷却系统:适合设计或部分设计有高功率机柜的,对PUE有较高要求的数据中心、模块化数据中心、集装箱数据中心。可应用靠近热源式冷却的XRow高效冷却方案,提供多种定制化设计。英维克的XRow列间空调,具备多种送风方式,可与封闭冷热通道配合设计,获得更佳效果。冷却方式包括:风冷、冷冻水、制冷剂循环等多种方式,结合iFreecooling 间接冷却技术,可实现高效自然冷却。该解决方案和产品中国移动、中国石化等客户广泛应用和推广,实现空调系统节能超过30%。 3. XRack微模块服务器机柜高效制冷系统:高效机柜制冷解决方案,包括户内微模块机柜解决方案与户外微模块机柜解决方案,在服务器机柜内实现了高效冷却,并集成模块化UPS、

数据中心机房制冷空调系统运维技术考核题目答案参考

数据中心(机房)制冷空调系统运维技术考核题目答案参考 类数据机房温湿度范围?单点温湿度波动范围? A类机房温湿度要求:23±1℃,40--55% ;单点温度波动小于5℃/h,湿度波动小于5%/h 参考:GB50174《电子信息系统机房设计规范》 2.空调回风参数:温度25℃,相对湿度50%;求露点温度? ℃参考:标准大气压湿空气焓湿图;此题关注会查空气状态点对应的露点温度和湿球温度 3.自然冷却模式、预冷模式、普通制冷模式的切换依据,对应的环境湿球温度值是多少? 湿球温度<10℃适合自然冷却模式,10--15℃之间适合预冷模式,>15℃适合普通制冷模式 参考:水冷自控系统供冷模式转换控制逻辑 4.机房空调送风距离多少米为宜?6-10m为宜 5.数据机房采用地板送风,风速范围多少m/s为宜? ( m/s最佳)参考:GB50174《电子信息系统机房设计规范》 6.数据机房新风正压要求数值? 机房与走廊;机房与室外参考:GB50174《电子信息系统机房设计规范》 7.数据机房新风量:人均参考值?每平米参考值?按机房换气次数每小时几次为宜? 按工作人员每人40m3/h;每平米25--30 m3/h;机房换气次数次/h(人员进出的机房取4次/h) 8.计算:900个标准机柜(13A)需要多大面积的机房合适?如选用艾默生冷水型机房空调P3150G至少需要多少台?按4-5台以上备份1台的标准,最多需要多少台?需要多大冷量的冷水机组提供冷源?需要多大风量的新风空调提供机房正压? 每个机柜加上冷热通道,平均面积取;×900=2070㎡(可分成4个㎡模块间,每个模块225台机柜) 每平米可用制冷量不能小于+每平米维护结构热负荷=每平米冷量需求 总冷量需求:×2070=3312KW 查艾默生冷水型空调样本:P3150G标准冷量为;需留有20%的预留(使用系数取) 艾默生P3150G冷水型空调单机净冷量:×= ○标准需求台数:3312÷≈28台;冗余配置(4+1):28÷4=7台(需配备机7台);含备机需28+7=35台 ○IT设备功耗转换成热量系数(取计算);13A机柜功耗,转换为热量÷≈ 总热负荷:×900=3429KW,除以P3150G空调单机净冷量≈29台,按冗余配置(4+1),需配备机7台;含备机需29+7=36台 ○空调系统制冷量取IT负载的倍;IT总负载:×900=2574KW;空调系统总制冷量:2574×= 除以P3150G空调单机净冷量≈28台,按冗余配置(4+1),需配备机7台;含备机需28+7=35台 ●需要冷量为3429KW(约1000RT)的冷水机组(离心式)1台提供冷源 新风量每平米25--30 m3/h(取30 m3/h);总新风需求30×2070=62100 m3/h,建议规划4个模块间单独提供新风62100÷4=15525 m3/h,需要新风量15525 m3/h的组合空调4台 9.制冷设备能效比EER是如何计算的? EER即制冷设备的制冷性能系数,也称能效比,表示制冷设备的单位功率制冷量。EER值越高,表示制冷设备中蒸发吸收的热量较多,压缩机耗电较少。数学计算公式:EER=制冷量(KW)/制冷消耗功率(KW) 单位:W/W或KW/h/W 10.冷站(动力站)COP是如何计算的? 冷水机组实际制冷量和配套设备(压缩机-马达+冷冻水循环泵+冷却水循环泵+冷却塔风机-马达)实际输入功率之比 11.数据机房PUE是如何计算的?绿色节能机房PUE标准? PUE是评价数据中心能源效率的指标,是数据中心消耗的所有能源(电能)与IT负载使用的能源(电能)之比PUE=数据中心总设备能耗/IT设备能耗;基准是2,越接近1表明能效水平越好 绿色节能机房PUE标准:以下 12.接题目8,匹配适合该冷水机组的冷却塔参数(流量)?冷却塔设在楼顶距冷站(动力站)20米,匹配适合该冷水机组的冷却循环泵参数(扬程和流量)?匹配适合该冷水机组和机房空调的冷冻循环泵参数(扬程和流量)(注:水泵出口至管网最高点垂直高度15米)? 水量需求:冷凝器()/RT 蒸发器(3/h)/RT

高热密度数据中心制冷解决方案设计

高热密高热密度度数据中心数据中心制冷制冷制冷解决方案解决方案解决方案设计设计设计 艾默生网络能源有限公司艾默生网络能源有限公司 严瀚严瀚严瀚 摘要 摘要:高热密度数据中心具有强大的虚拟化、集中化、云计算等功能,节地、节能、节省人工等优点,因而存在巨大的应用优势,但是目前其方案、设备的设计、选型还没有成熟的理论指导。本文就高热密度数据中心设备的选型从理论和工程经验两方面进行了剖析,指出了建设高热密度数据中心的具体方法和发展方向。 关键词关键词::高热密度高热密度 数据中心数据中心数据中心 制冷解决方案制冷解决方案制冷解决方案 风量风量风量 焓焓 紊流紊流紊流 雷诺数雷诺数雷诺数 行间级制冷行间级制冷行间级制冷 机柜级制冷机柜级制冷 芯片级制冷芯片级制冷芯片级制冷 艾默生艾默生艾默生 XD XD 系统系统 CRV CRV 系统系统 CoolTherm CoolTherm 水冷机柜水冷机柜 微热管微热管微热管 引子引子:随着云计算的发展,传统的低密度数据中心已经不能满足日益发展的需求,因此出现了超过8kW/Rack 的数据中心,我们一般将8kW/R 至30kW/R 之间的热密度机柜成为高热密度机柜,超过30kW/R 发热量的机柜称之为超高热密度机柜(图1)。 图1 高热密度机柜出风口红外图 一、 选择建设选择建设高热密度数据中心高热密度数据中心高热密度数据中心的的原因 1、在传统的低密度数据中心中,设备占地面积广大,往往达到几千甚至上万平方米,这在建筑成本日益升高的今天,无疑是一种巨大的浪费。而高热密度数据中心,由于提高了机柜的装机容量,使得同样功能的数据中心面积可缩小60%以上。比如传统2kW/R 的机柜,若提升到10kw/R ,则可实现80%的节地,其建筑成本的节省就是一笔非常大的收益。 2、由于传统的机房精密空调需要依靠房间中的空气作为传导冷量的媒介,因此若机房面积大,其相应需要冷却的空气质量非常大,而空气中的水蒸气相变吸收的潜冷量更加巨大,因此若能减少面积,相应的建筑热负荷需求也会显著下降,可实现非常大的节能收益。

常见数据中心冷却系统

常见数据中心冷却系统 由于数据中心的发热量很大且要求基本恒温恒湿永远连续运行,因此能适合其使用的空调系统要求可靠性高(一般设计都有冗余备机)、制冷量大、温差小和风量大。下面,我们简要介绍下适合数据中心部署的空调冷却系统。 1、风冷精密空调 这是数据中心最传统的制冷解决方案,单机制冷能力一般都在50到200KW之间,一个数据机房一般都是安装多台才能满足需要。下面是风冷精密空调的工作原理图。 风冷精密空调工作原理图 风冷精密空调一般采用涡旋压缩机制冷(一般安装在精密空调内),能效比相对比较低,在北京地区一般在1.5到3之间(夏天低,冬天高)。风冷精密空调在大型数据中心中使用存在以下不足: ●安装困难 ●在夏天室外温度很高时,制冷能力严重下降甚至保护停机

●对于传统多层电信机房,容易形成严重的热岛效应 ●需要开启加湿除湿功能,消耗大量能源 2、离心式水冷空调系统 这是目前新一代大型数据中心的首选方案,其特点是制冷量大并且整个系统的能效比高(一般能效比在3到6之间)。离心式制冷压缩机的构造和工作原理与离心式鼓风机极为相似。但它的工作原理与活塞式压缩机有根本的区别,它不是利用汽缸容积减小的方式来提高气体的压力,而是依靠动能的变化来提高气体压力。 离心式水冷空调系统

水冷冷冻机组的工作原理 离心式冷冻机组在小负荷时(一般为满负荷的20%以下)容易发生喘振,不能正常运转。因此,在数据中心水冷空调系统的设计中一般先安装一台小型的螺杆式水冷机组或风冷水冷机组作为过渡。大型数据中心的水冷空调系统一般由以下五部分组成,示意图如下。 水冷空调系统示意图 免费冷却技术指全部或部分使用自然界的免费冷源进行制冷从而减少压缩机或冷冻机消耗的能量。目前常用的免费冷源主要是冬季或春秋季的室外空气。因此,如果可能的话,数据中心的选址应该在天气比较寒冷或低温时间比较长的地区。在中国,北方地区都是非常适合采用免费制冷技术。

机房数据中心供配电系统解决方案

商业银行数据中心供配电系统解决方案 商行数据中心的基础设施系统主要分电源、环境控制和机房监控管理系统。由于数据中心承载商行的核心业务,重要性高,不允许业务中断。因而数据中心一般根据TIA942标准的Tier4标准建设,可靠性要求99.99999%以上,以保证异常故障和正常维护情况下,数据中心正常工作,核心业务不受影响。 1、 电源系统: 选用两路市电源互为备份,并且机房设有专用柴油发电机系统作为备用电源系统,市电电源间、市电电源和柴油发电机间通过ATS (自动切换开关)进行切换,为数据中心内UPS 电源、机房空调、照明等设备供电。由于数据中心业务的重要性,系统采用双母线的供电方式供电,满足数据中心服务器等IT 设备高可靠性用电要求。双母线供电系统,有两套独立UPS 供电系统(包含UPS 配电系统),在任一套供电母线(供电系统)需要维护或故障等无法正常供电的情况下,另一套供电母线仍能承担所有负载,保证机房业务供电,确保数据中心业务不受影响。在UPS 输出到服务器等IT 设备输入间,选用PDM (电源列头柜)进行电源分配和供电管理,实现对每台机柜用电监控管理,提高供电系统的可靠性和易管理性。 对于双路电源的服务器等IT 设备,通过PDM 直接从双母线供电系统的两套母线引人电源,即可保证其用电高可靠性。对于单路电源的服务器等IT 设备,选用STS (静态切换开关)为其选择切换一套供电母线供电。在供电母线无法正常供电时,STS 将自动快速切换到另一套供电正常的母线供电,确保服务器等IT 设备的可靠用电。 供配电系统拓扑图 机柜P D U 1机柜P D U 2 机柜机柜机 柜P D U 1 机柜机柜机柜P D U 2 机柜P D U 2 机柜P D U 1机柜机柜 机柜 图示双母线供电系统可确保供电可靠性高达99.99999%以上

大型数据中心制冷系统的三个关键

大型数据中心制冷系统的三个关键 目前,随着大型数据中心高密度服务器与低密度混合模式的出现,由于服务器的密度不均衡,因而产生的热量也不均衡,传统数据中心的平均制冷方法已经很难满足需求。 据统计,目前85%以上的机房存在过度制冷问题,而供电中只有1/3用在IT 设备上,制冷费用则占到总供电的2/3 。因此,降低能耗、提高制冷效率是大型数据中心建设的关键所在。北京世纪互联工程技术服务有限公司(以下简称BANYANO)于2008年12月,就大型数据中心制冷系统建设的几个关键性问题,发布了技术白皮书。 制冷模式的转变:集中制冷到按需制冷 在以往的空调系统设计中,多采取集中制冷模式,将空调房间考虑成一个均匀空间,按现场最大需求量来考虑。这种模式忽视了空间各部分的需要,缺少考虑制冷效率、制冷成本的意识。目前随着科学技术的发展以及高密度大型数据中心的建设需求,人们逐渐认识到按需制冷的必要和集中制冷的弊端。 据BANYANO技术人员介绍,“按需制冷”就是按机房内各部分热源的即时需要,将冷媒送到最贴近热源的地方。它最大的特点是制冷方式的定量化和精准化,从“房间级”制冷转变为“机柜级”制冷,最后到“芯片级”制冷。例如,在高密度大型数据中心的建设规划中,BANYANO采用了以“精密制冷”为核心的机柜级解决方案。将英飞集成系统的In-row制冷单元放在高密度服务器机柜旁边,针对每个热点进行降温,让冷热空气直接在机柜和空调之间以最短的路径循环,从而有效提高制冷效率。根据设备发热量的高低配置相应数量的制冷单元,以此做到按需供冷定量分配。与房间级制冷相比,In-row制冷对冷气的利用率达到70%,并能够处理更高的热负载密度。 送风方式的设计:上送风VS下送风 数据中心内显热庞大,潜热微小的环境导致需要大风量的空调系统。为保证数据中心内不同位置的IT设备都能处于适宜的温度和湿度,正确设计数据中心的送风和回风的气流组织成为大型数据中心制冷系统建设的重要环节。 建设大型数据中心制冷系统的三个关键</p

绿色数据中心机房空调方案冷冻水下送风

第一部分:工程概况及建设原则与目标 一、工程概况 1、机房长、宽、高;净空高度、有无地板、地板高度;机房朝向、密封情况。 2、每个机房的设备类型、设备数量、设备功耗。 3、原有空调情况、送回风方式(改造项目)。 4、机房出现问题描述(改造项目)。 5、冷冻水空调系统状况描述:冷冻水供水温度:7℃,回水温度;12℃压力;100Kpa;管路:双路供水或单路供水等。 二、数据中心机房空调设计依据与标准 1、设计规范与参考依据 根据国家和国际的数据中心机房与空调的标准与规范: ●GB50174-2008《电子计算机机房设计规范》 ●GB/T2887–2000《电子计算机场地通用规范》 ●ASHRAE (American Society of Heating, Refrigerating and Air-Conditioning Engineers, Inc.) TC9.9 ●TIA942标准(Telecommunications Infrastructure Standard for Data Centers) ●其他数据中心和暖通空调设计规范和文件 2、机房设计标准 数据中心机房和电力机房内有严格的温、湿度、噪音等要求,机房按国标GB2887-89《计算机场地安全要求》的规定: 1)、温度、湿度标准: 表2 温度、湿度标准 222 C 202 C 5C/h并不得结露 2)、噪音标准: 主机房区的噪声声压级小于68分贝

3)、正压密封要求 主机房内要维持正压,与室外压差大于9.8帕,机房要求密封运行,减少门窗等区域的冷风渗透。 4)、洁净度要求 在表态条件下,主机房内大于0.5微米的尘埃不大于18000粒/升。 5)送风速度 送风速度不小于3米/秒。 6)新风需求 满足工作人员工作所需的新风要求量,按照30~40m3/h·人计算。 根据机房实际可实施的情况,在过渡季节,引入室外较低温度的冷风,减少机房内空调负荷,减少机房空调能耗。 三、数据中心空调建设原则与目标 1)、标准化。数据中心机房规划设计方案,基于国际标准和国内有关标准,包括各种机房设计标准,机房空调相关规范以及计算机局域网、广域网标准,从而为建设高标准、高性能机房奠定基础。 2)、先进性与实用性相结合。机房空调系统设计立足于高起点,参考国际先进的机房空调建设经验以及业界同类机房的建设经验,适应当前数据中心机房的实际情况,构建合理并适当超前的技术体系架构。 3)、可靠性。数据中心机房空调系统应具有高可靠性,以保证数据中心主设备的稳定运行;机房空调制冷量按照机房内设备功耗量以及规划布局等因素设计计算,并考虑合适的冗余,保证为用户提供连续不间断的365×24小时空调运行服务。 4)、可扩充性和工程可分期实施。在机房空调系统设计中充分考虑用户后期的扩容,以及不同功能区间的划分,进行合理的冗余设计,预留合适的安装位置;实现根据区域扩容情况逐步增加机房空调,提高初次投资的利用率。 5)、智能与群控管理。机房空调系统采用智能化设计,可以实现对机房内多台机组进行集群控制,根据机房负荷变化,控制机房空调运行,实现空调能效管理。提供远程监控通信接口,实现远距离监控,远程监控与当地控制相同。 6)、绿色环保、节能、减排。数据中心机房空调设计充分考虑当前机房节能技术和节能方案,满足各种电子设备和工作人员对温度、湿度、洁净度、电磁场强度、噪音干扰、安全保安、防漏、电源质量、振动、防雷和接地等的要求,考虑环保、减排的要求,建设安全可靠、舒适实用、绿色节能、高效的数据中心机房。

大型数据中心解决方案

大型数据中心
实现有效的联结
机架 机柜行 机房 整个大楼 确保整体系统的效率和可用性

动态的能源管理构架 … 从 电力生产到电力使用 与关键应用领域全面兼容 有效平衡施耐德电气和第三方供应商之间的开放式标准
2

数据中心方向
整个业界都在行动, 致国于制定政策和相应的行为规范
● 绿色网格全球联盟一直致力于制定标准, 衡量,流程和技术以提升数据中心的性 能 ● 美国环境保护局 (EPA) 正在确定数据中心的效率标准 (能源之星评级) ● 欧盟委员会能源研究所 d正在确定数据 中心效率的 “行为准则” ● 大型企业联合会也正在开始确定公共的 碳承诺
是绿色网格计划的的创始成员及董事 会成员单位
效率不容忽视
3

什么是DCPI….
Data Center Physical Infrastructure
IT floor The “white space”
涉及供电,制冷,机架系统,安 防,管理等为IT设备提供技 持的各个层面
我们全面端到端视角对于可用性 我们全面端到端视角对于 可用性和 和效率 效率产生深远的影响 产生深远的影响
4

所有的挑战都汇集于数据中心
● IT密度不断提升,且已超出传统的供电和制冷基础设施的能力范围
● 分布式数据中心的的集中化 ● 虚拟化和IT运算的随需而变
● 设计及构建的周期需要更快可预见性更高
● 反复多变的商业氛围要求数据中心具有特别的灵活性以与其保持同步 多变 氛 要 其 ● IT技术的发展变化为”早期的使用者”带来明显的商业优势
● 能效现是已是一个全球性的问题
● 由于能耗大而且需求不断提升,数据中心已成为焦点 由于能耗大而且需求不断提升 数据中心已成为焦点 ● 能源成本和可用性会对底限产生影响
5

数据中心空调系统制冷量确定方法

数据中心空调系统制冷量确定方法 数据中心温度是确保服务器等IT设备正常稳定运行的先决条件,温度对计算机设备的额电子元器件、绝缘材料以及记录介质都有较大的影响。在正常工作的服务器中,一般CPU的温度最高,当电子芯片的温度过高时,非常容易出现电子漂移现象,服务器就可能出现宕机甚至烧毁。因此机房环境温度与设备运行的可靠性之间有必然联系。数据中心机房建设的国家标准GB50174-2008《电子信息机房设计规范》对机房开机时的环境的要求如下表所示: 为使数据中心能达到上述要求,应采用机房专用空调(普通民用空调、商用空调与机房专用空调的差异对比不在本文讨论范围)。如果数据中心机房环境不能满足以上要求会对服务器等IT设备造成以下影响: 温度无法保持恒定-造成电子元气件的寿命降低 局部温度过热-设备突然关机 湿度过高-产生冷凝水,短路 湿度过低-产生有破坏性的静电 洁净度不够-机组内部件过热,腐蚀 IDC机房的热源不是唯一的,由多种成分组成,按《电子信息机房设计规范》中规定,机房的热负荷应包括下列内容: 计算机和其他设备的散热 建筑围护结构的传热 太阳辐射热 人体散热、散湿 照明装置散热 新风负荷 热负荷的计算方法很多,有精确算法、估算法,本文结合各种算法,针对主要热源进行精确计算。当上述各项热负荷之和确定后,就可以初步确定对空调机制冷能力的要求。对于中高档机房,应优先选用模块化机房专用空调,这样对机房将来的运行、扩容和改造都十分有利。 数据中心热负荷及其计算方法

1、机房热负荷计算方法一:各系统累加法 (1)设备热负荷: Q1=P×η1×η2×η3(KW) Q1:计算机设备热负荷 P:机房内各种设备总功耗(KW) η1:同时使用系数 η2:利用系数 η3:负荷工作均匀系数 通常,η1、η2、η3取0.6~0.8之间,考虑制冷量的冗余,通常η1×η2×η3取值为0.8。 (2)机房照明热负荷: Q2=C×S(KW) C:根据国家标准《计算站场地技术要求》要求,机房照度应大于2001x,其功耗大约为20W/M2。以后的计算中,照明功耗将以20W/M2为依据计算。 S:机房面积 (3)建筑维护结构热负荷 Q3=K×S/1000(KW) K:建筑维护结构热负荷系数(50W/m2机房面积) S:机房面积 (4)人员的散热负荷: Q4=P×N/1000(KW) N:机房常有人员数量 P:人体发热量,轻体力工作人员热负荷显热与潜热之和,在室温为21℃和24℃时均为130W/人。 (5)新风热负荷计算较为复杂,我们以空调本身的设备余量来平衡,不另外计算。 以上五种热源组成了机房的总热负荷,即机房热负荷Qt=Q1+Q2+Q3+Q4。由于上述(3)(4)(5)计算复杂,通常是采用工程查表予以确定。但是因为数据中心的规划与设计阶段,非常难以确定,所以实际在数据中心中通常采用设计估算与事后调整法。 2、机房热负荷计算方法二:设计估算与事后调整法 数据中心机房主要的热负荷来源于设备的发热量及维护结构的热负荷。 因此,要了解主设备的数量及用电情况以确定机房专用空调的容量及配置。根据以往经验,除主要的设备热负荷之外的其他负荷,如机房照明负荷、建筑维护结构负荷、补充的新风负荷、人员的散热负荷等,如不具备精确计算的条件,也可根据机房设备功耗及机房面积,按经验进行测算。 采用“功率及面积法”计算机房热负荷。 Qt=Q1+Q2

数据中心房间制冷方式白皮书

简介 2房间级、行级和机柜级制冷2三种制冷方式的比较6结论11资源 12 点击内容即可跳转至具体章节 目录 数据中心房间级、行级和机柜级 制冷方式的选择

数据中心IT 负载所消耗的电能几乎都会变成废热,必须将这些废热排出去以防止数据中心温度过热。实际上,所有IT 设备都是风冷型设备,也就是说,每台IT 设备都会吸入周围环境的冷空气,再排出热空气。由于一个数据中心可能包括数千IT 设备,因此数据中心内会有数千条热气流排风路径,它们共同构成了数据中心的总废热,这些废热必须排出去。空调系统对数据中心的作用就是高效收集这些复杂的废热气流,并将它们排到室外去。 过去,数据中心制冷一直采用周边制冷装置,在高架地板下方分配冷气流,不采取任何形式的气流遏制。这称为“精确送风、自然回风”的气流分配方法,具体请参见第55号白皮书《用于IT 环境的各种气流分配方案》。此种方法是并行运行一个或多个空调系统,将冷空气送入数据中心,并吸回机房环境中较热的空气。这种方式的基本原理是,空调不仅提供原始制冷容量,而且还作为一个大型的混合器,不断搅动混合机房中的空气,使之达到一致的平均温度,以防止热点的出现。这种方法只有在混合空气所需功耗仅占数据中心总功耗很小一部分时才有效。模拟结果和经验表明,仅当数据中心平均功率密度为每机柜1~2kW 左右,即323~753 W/m2(30~70 W/ft2)时,该系统才能发挥应有的效果。虽然可采取各种措施来提高此传统制冷方法的功率密度,但在实际实施时仍有限制。如需了解更多有关使用传统制冷的限制的信息,请参见第46号白皮书《超高密度机柜和刀片服务器散热策略》。随着现代IT 设备的功率密度将峰值功率密度提升至每机柜20kW 甚至更高,模拟结果和经验都指出,基于混合空气的传统制冷(无气流遏制)不再能起到有效的作用。 为解决这一问题,在设计数据中心时会采用侧重房间级、行级和机柜级制冷的设计方式。在这些方式中,空调系统将分别与房间、机柜行或单个机柜集成,以减少空气混合。这样可以提高可预测性、密度和效率,同时还带来很多其它优势。在本白皮书中,介绍并比较了各种制冷方式。我们可以看出,这三种制冷方式都有相应的应用,总体而言,趋势是,较小数据中心和高密度区域将采用行级制冷,而较大型数据中心则会更多地采用带气流遏制的房间级制冷。 每个数据中心的空调系统都有两个重要功能:提供总制冷容量,以及将向IT 负载分配冷气流。对于房间级、行级和机柜级制冷来说,第一个功能,即提供总制冷容量的功能都是相同的,以千瓦为单位的空调系统的总制冷容量,必须超出IT 设备的总功率负载(千瓦)。无论制冷系统采用房间级、行级还是机柜级设计,提供该功能的各种技术都是相同的。这些制冷方法的主要差别在于,它们如何执行第二项关键功能,即将冷空气分配给负载。与将电流限制在线缆中并作为设计的一部分的清晰可见的配电不同,气流只是大体受限于机房设计,实际气流在实施过程中并不可见,而且不同部署地点之间会有很大差异。气流控制是不同制冷系统设计方式的主要目标。图1以总平面图形式展示了三种基本制冷方式配置。图中,黑色方框表示按行排列的机柜,蓝色箭头表示机房空气处理(CRAH )机组与IT 机柜中负载间的逻辑关联。CRAH 机组的实际物理布局可能会有所不同。采用房间级制冷时,CRAH 机组与机房相关联;采用行级制冷时,CRAH 机组与机柜行或机柜组相关联;而采用机柜级制冷时,CRAH 机组则与各机柜相关联。 简介 房间级、行级和机柜级制冷 图1 此平面图显示了房间级、行级和机柜级制冷的基本概念。蓝色箭头表示主要制冷送风路径与机房的关系。 用于IT 环境的各种气流分配方案 资源链接 第55号白皮书 超高密度机柜和刀片服务器散热策略 资源链接 第46号白皮书

数据中心机房环境及供配电系统解决方案

数据中心机房环境及供配电系统解决方案 一、机房环境 1、以通信行业标准规定的通信设备(交换设备、传输设备、数据网络设备)的正常使用环境要求为基础,确定数据中心机房的环境要求。 2、机房环境温湿度要求 AA级、A级机房温度为21~25℃,B级、C级机房温度为18~28℃,相对湿度40~70%,温度变化率小于5℃/h,且不结露。 3、机房洁净度要求 机房内灰尘粒子应为非导电、非导磁及无腐蚀的粒子。灰尘粒子浓度应满足:(1)直径大于0.5μm的灰尘粒子浓度≤18000粒/升。(2)直径大于5μm 的灰尘粒子浓度≤300粒/升。 3.1.4 楼层净空高度要求 (1)数据中心机房的有效净空高度是指设备机柜底部至横梁底部之间高度,不宜小于3200mm。 (2)当机房上方需要安装风管时,有效净空高度应相应增加;采用高度大于2200mm机柜时,有效净空高度也应相应增加。 4、数据中心一般机房的楼面均布活荷载应为6~10kN/m2;电源电池室机房的楼面均布活荷载应符合相关标准要求。 5、机房走线架应选择敞开式线架,走线架不设底板和侧板,宽度应不小于400mm,且与机柜顶端间距应不小于300mm。 二、机房供电系统 1、电源系统: 选用两路市电源互为备份,并且机房设有专用柴油发电机系统作为备用电源系统,市电电源间、市电电源和柴油发电机间通过ATS(自动切换开关)进行切换,为数据中心内UPS电源、机房空调、照明等设备供电。由于数据中心业务的重要性,系统采用双母线的供电方式供电,满足数据中心服务器等IT设备高可靠性用电要求。双母线供电系统,有两套独立UPS供电系统(包含UPS配电系统),在任一套供电母线(供电系统)需要维护或故障等无法正常供电的情况下,另一套供电母线仍能承担所有负载,保证机房业务供电,确保数据中心业务不受影响。在UPS输出到服务器等IT设备输入间,选用PDM(电源列头柜)进行电源分配和供电管理,实现对每台机柜用电监控管理,提高供电系统的可靠性和易管理性。对于双路电源的服务器等IT设备,通过PDM直接从双母线供电系统的两套母线引人电源,即可保证其用电高可靠性。对于单路电源的服务器等IT设备,选用STS(静态切换开关)为其选择切换一套供电母线供电。在供电母线无法正常供电时,STS将自动快速切换到另一套供电正常的母线供电,确保服务器等IT设备的可靠用电。 2、机房智能配电系统三级结构 数据中心三级配电系统是对机房配电的创新,机房三级配电系统有利于配电系统的设计和运维管理

数据中心运维服务术语

数据中心基础设施:包括供配电系统、空调与制冷系统、制冷自控(BA)系统、动环监控系统、防雷接地系统、综合布线、安防消防及安全防护。 供配电系统:包括供电设备与供电路由。供电设备包括高低压成套柜、变压器、发动机组、UPS、高压直流、蓄电池组、列头柜等;供电路由包括高低压供电线缆及母排。 空调与制冷系统:包括制冷设备与制冷回路。制冷设备包括冷水机组、冷冻水机房空调、蓄冷设备、冷却塔、水泵、热交换设备、直膨式机房空调、新风设备等。制冷回路包括冷冻水管道、冷却水管道、水处理设备、定压补水装置、阀门仪表、气流组织等。 动环监控系统:包括监控硬件与监控软件。监控硬件包括服务器硬件、传输网络、采集单元、传感器变送器、智能设备等。监控软件包括数据库软件、系统软件等。 制冷自控(BA)系统:包括软件、系统服务器、监控主机、配套设备、网络传输设备、计算机监控网络、DDC控制器及前端点位采集设备。 防雷接地系统:包括外部防雷装置和内部防雷装置。外部防雷装置主要用于防护直击雷,主要包括接闪器、引下线、接地系统等。内部防雷装置主要用于减小和防止雷电流产生的电磁危害,包括等电位连接系统、接地系统、屏蔽系统、SPD等。 安防系统:包括视频监控系统、出入口控制系统、入侵报警系统、电子巡更系统等。 消防系统:包括早期报警系统、火灾自动报警系统、水/气体灭火系统、消防联动控制系统等。 服务等级协议(SLA):服务提供商和客户之间签署的描述服务范围和约定服务级别的协议。 日常巡视:定期对机房环境及设备进行巡视检查,以确认环境和设备处于正常工作状

态,开展方式一般为目测。 例行维护:定期对机房环境及设备进行的维护工作,以防止设备在运行过程中出现故障。 预防性维护:有计划地对设备进行深度维护或易损件更换,包括定期维护保养、定期使用检查、定期功能检测等几种类型;让设备处于一个常新的工作状态,降低设备出现故障的概率。 预测性维护:通过各种测试手段进行数据采集及分析,判断设备的裂化趋势、预测可能发生的潜在威胁,并提出相应的防范措施。 标准操作流程(SOP):SOP是将某一项工作的标准操作步骤和要求以统一的格式描述出来,用来指导和规范日常的运维工作。 维护操作流程(MOP):MOP用于规范和明确数据中心基础设施运维工作中各项设施的维护保养审批流程、操作步骤。 应急操作流程(EOP):EOP用于规范应急操作过程中的流程及操作步骤。确保运维人员可以迅速启动,确保有序、有效地组织实施各项应对措施。 场地配置流程(SCP):动态管理数据中心基础设施系统与设备运行配置。 事件管理:事件是指较大的、对数据中心运行会产生一定影响的事情,故障属于事件的一种。事件管理是指识别事件、确定支持资源、快速解决事件的过程。事件管理的目的是在出现事件时尽可能快地恢复正常运行,把对业务的影响降为最低,确保服务质量满足SLA要求。如果事件原因暂时未找到,则该事件升级为问题管理,通过问题管理的方式追踪根本原因。

相关文档
相关文档 最新文档