文档库 最新最全的文档下载
当前位置:文档库 › 数据中心制冷系统介绍及竞争分析

数据中心制冷系统介绍及竞争分析

数据中心节能方案分析

数据中心节能方案分析 数据中心的能耗问题已越来越成为人们所关注,绿色数据中心的呼声越来越高。由于数据中心涉及的专业很多,研究者往往只从本专业出发,而没有考虑与其他专业的配合问题。随着信息技术的发展,数据中心的节能手段也在不断的更新和提高,目前主要使用的节能手段有以下几个方面。 1.1冷热通道隔离技术 经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,并且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示: 冷热通道完全隔离 隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。 隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,但是他们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃。隔离冷通道的未被隔离部分空

数据中心节能方案

数据中心的制冷系统节能方案 对于数据中心,制冷系统通常按照其满负载,高室外温度的最恶劣情况进行设计。当数据中心负载较少且室外凉爽时,系统必须降低功率以减少向数据中心供冷。然而,制冷机组的各种装置在这种情况下利用相当不充分并且工作效率极低。为了提高在这种情况下的工作效率,制冷装置经过改进,配置了变频调速驱动、分级控制或者其他功能。但是,仍然非常耗能。于是,工程师开始利用他们的知识与智慧,想法设法降低数据中心电力消耗,由此节能冷却模式应运而生。今天,我们就对数据中心的几种节能冷却模式进行一下总结。 做过数据中心的暖通工程师在听到节能冷却模式的时候,首先想到的应该就是“风侧节能冷却”和“水侧节能冷却”,这两个术语常被用来形容包含节能制冷模式的制冷系统。本期重点讨论风侧节能冷却模式。 1.直接风侧节能冷却模式 当室外空气条件在设定值范围内时,直接风侧节能冷却模式利用风机和百叶从室外经过过滤器抽取冷风直接送入数据中心。百叶和风阀可以控制热风排到室外的风量以及与数据中心送风的混合风量以保持环境设定温度。在与蒸发辅助一起使用时,室外空气在进入数据中心前需要先穿过潮湿的网状介质,在一些干燥地区,蒸发辅助可以使温度降低高达十几摄氏度,充分延长节能冷却模式的可用时间。

需要注意的是,这种类型的节能冷却模式在结合蒸发辅助使用时会增加数据中心的湿度,因为直接送入数据中心的新风会先经过蒸发环节。所以蒸发辅助在干燥气候环境下优势最大。如果是较为潮湿的天气环境,则应结合投资回报率评估是否使用蒸发辅助,因此所额外消耗掉的能源可能会抵消节能冷却模式所节能的能源,得不偿失。另外,此种的节能模式尽管送风已经经过过滤,但是并不能完全消除微粒,比如防止烟雾和化学气体,进入数据中心。 2.间接风侧节能冷却模式 当室外空气条件在设定值范围内时,间接风侧节能冷却模式利用室外空气间接为数据中心制冷。板换热交换器、热轮换热器和热管是三种常见的隔离技术,可隔离室外湿度的影响并防止室外污染物进入IT 空间。在这三种技术中,板换热交换器在数据中心中的应用最为普遍。 基于空气热交换器的间接节能冷却方法使用风机将室外冷风吹到一组板换或盘管上面,冷却穿过板换或盘管的数据中心内的热空气,将数据中心内的空气与室外空气完全隔离。这种类型的节能冷却模式也可以与蒸发辅助结合使用,向板换或盘管的外表面喷水以便进一步降低室外空气的温度,从而冷却数据中心内的热回风。与直接新风节能冷却模式不同,蒸发辅助不会增加IT 空间内的湿度,但需要补充少量新风。

数据中心制冷系统发展趋势

数据中心制冷系统发展趋势 数据中心制冷设备是为数据中心环境、数据中心主设备服务的、是依托于数据中心设备、功能而存在的,所以从根本上讲,我们看数据中心制冷系统的发展趋势,应该结合数据中心本身的发展来看,比如应用的行业、规模、主设备等等因素的变化都可能会导致数据中心制冷设备变化,甚至国内外标准的升级、国家区域政策的变化也对数据中心制冷的形态产生直接或间接的影响。 一、2000年左右数据中心行业发展初期,web1.0时代 1、数据中心特点 (1)计算机、互联网尚未普及,数据中心概念尚未建立; (2)小型计算机房、通信机房,设备少、面积小、单位发热低; (3)相关标准刚刚建立,多为借鉴国外标准,实际应用经验少; (4)对数据中心理解较少,主要解决安全性问题。 2、对制冷方案的主要诉求 (1)可靠、稳定、安全; (2)基本功能实现,温湿度、洁净度。 3、制冷方案:以单元式风冷直膨设备为主 4、系统特点

(1)单元式分体机组,室外机占用空间; (2)单机冷量小,通常不超过100kW; (3)安装、运维简单; (4)自带加除湿功能; (5)能效受限,cop2.5左右; (6)室外机场地受限,占地较多,不适合高层写字楼。 二、2000年-2008年,数据中心行业快速成长期,进入web2.0时代 1、数据中心特点 (1)信息化建设加速,数据服务业务增加,机房数量增多、行业增多; (2)中大型机房开始出现,计算机房、通信机房开始转变为数据机房; (3)IT设备、服务器单位功耗增加、密度增加,对电、冷、空间、环境要求提升; (4)行业积累了一定经验,开始针对性定制或升级相关技术标准,规范更细致; (5)机房建设、运营更加专业化、标准化。 2、对制冷方案的主要诉求 (1)可靠、稳定、安全; (2)能适应不同机房特点、方案灵活; (3)设备功能提升,如群组功能、智能运行功能等;

电力能耗监测系统,能耗管控系统软件

高速生产时代,企业工厂都面临着电能消耗高的问题,如果我们对节能不重视,在运营中电力浪费严重,特别是高耗能企业中,水电费已成为主要的成本。而使用电力能耗监测系统对水电能耗进行监测分析,可以大大降低成本。 源中瑞电能能耗监测系统对数据进行实时监控,可以展示不同时间段的用电情况,远程抄表,远程设备停启,耗电情况等138.2311.8291非常方便管理者掌握电能成本,实时集中管控,提升管理效率,降低运营成本,实现能源细化管理,让企业实现规范化管理。 能耗节能系统包含: 1、数据接入到传输平台:国家节点与省节点的数据接入的软件系统,主要功能是接收能耗监测端设备上传的能耗在线监测数据。 2、应用软件系统:提供能耗监测端设备应用软件配置的地区划、能源品种、行业、生产工序编码等标准数据。 3、能耗监测端设备管理平台:能耗监测端设备管理平台负责能耗监测端设备的新增和管理,并可对能耗监测端设备的远程检测功能。设备损坏、停工提示。 4、数据传输:节能系统采用安全的无线通信技术,无线通信技术具有布网方便,对环境破坏小,系统通讯网络构建:完成所有监测计量仪表、仪表与网络通讯层设备、通讯层与系统管理层的通讯,实现末端计量仪表与能耗监测平台软件

系统的数据通讯功能。 电力能耗监测系统由数据采集系统需要找微ruiecjo数据传输系统和数据中心的软硬件设备及系统组成。 1、数据采集系统: 即数据采集终端,主要由智能仪表组成,主要有:计量设备:电表、水表等;数据采集设备:集中器、采集器。 2、数据传输系统: 能耗数据传输系统包括传输网络的选择、数据传输通信协议、数据加密。 3、数据中心: 数据中心是系统的“大脑”,数据采集接收、数据存储、数据处理、数据分析,并以报表、图形、声音等方式展示给用户。 应用软件:能耗监测系统。 客户端设备:计算机或手机设备,联网登录系统可随时查看能耗数据。 源中瑞能源电力消耗监测与分析系统功能: 为企业提供用户权限管理、用电设备统计、监测区域管理以及电子地图等功能; 对企业的各厂区电力系统进行分监测,区域实时监测,实时显示电能质量、电能消耗等数据; 对企业的大功率设备、生产线进行实时监测,实时显示电力

数据中心制冷技术的应用及发展V2 1

数据中心制冷技术的应用及发展 摘要:本文简要回顾了数据中心制冷技术的发展历程,列举并分析了数据中心发展各个时期主流的制冷技术,例如:风冷直膨式系统、水冷系统、水侧自然冷却系统及风侧自然冷却系统等。同时,分析了国内外数据中心制冷技术的应用差别及未来数据中心制冷技术的发展趋势。 关键词:数据中心;制冷;能效;机房;服务器 Abstract This paper briefly reviews the development of data center cooling technology, enumerates and analyzes the cooling technologies in data center development period. The enumerated technologies includes direct expansion air-conditioning system, water side cooling system, water side free cooling system and air side free cooling system, etc. At the same time, the paper analyzes the difference of data center cooling technology application between the domestic and overseas as well as the tendency of data center cooling technology in the future. Key words data center; cooling; efficiency; computer room; server 1前言 随着云计算为核心的第四次信息技术革命的迅猛发展,信息资源已成为与能源和材料并列的人类三大要素之一。作为信息资源集散的数据中心正在发展成为一个具有战略意义的新兴产业,成为新一代信息产业的重要组成部分和未来3-5 年全球角逐的焦点。数据中心不仅是抢占云计算时代话语权的保证,同时也是保障信息安全可控和可管的关键所在,数据中心发展政策和布局已上升到国家战略层面。 数据中心是一整套复杂的设施。它不仅仅包括计算机系统和其它与之配套的设备(例如通信和存储系统),还包含配电系统、制冷系统、消防系统、监控系统等多种基础设施系统。其中,制冷系统在数据中心是耗电大户,约占整个数据中心能耗的30~45%。降低制冷系统的能耗是提高数据中心能源利用效率的最直接和最有效措施。制冷系统也随着数据中心的需求变化和能效要求而不断发展。下文简要回顾和分析了数据中心发展各个时期的制冷技术应用,并展望了未来数据中心的发展方向。 2风冷直膨式系统及主要送风方式 1994年4月,NCFC(中关村教育与科研示范网络)率先与美国NSFNET直接互联,实现了中国与Internet全功能网络连接,标志着我国最早的国际互联网络的诞生。

数据中心空调制冷量的计算

办公场所空调制冷量怎么计算 办公室空调与面积要怎么匹配,会议室空调又怎么匹配,要怎么计算? 一冷量单位 〉千瓦(kw)—国际单位制,把制冷量统一到功率相同单位,是现在制冷界努力的方向 〉大卡(kcal/h)一习惯使用单位,与kw的换算关系为 1kcal/h=1.163w 1w=0.86kcal/h 1万大卡=11.6千瓦 〉冷吨(RT)----1吨0摄氏度的冰在24小时内变成0摄氏度水所吸收的热量。 1冷吨=3.517kw 〉匹(HP)---又称马力、匹马力,即表示输入功率,也常表示制冷量。表示功率时 1HP=0.735KW 〉表示制冷量时,实际含义为消耗1HP功率所产生的制冷量 1HP - - -2.2KW 二制冷量简便计算方法 精密空调的负荷一般要根据工艺房间的实际余热余温以及状态的变化进行准确计算,但在条件不允许时也可计算,下面介绍两种简便的计算方法: 方法一:功率及面积法 Qt=Q1+Q2 Qt总制冷量(kw) Q1室内设备负荷(=设备功率X0.8) Q2环境热负荷(=0.18KW/m2X机房面积)

方法二:面积法(当只知道面积时) Qt=S x p Qt总制冷量(kw) S 机房面积(m2) P 冷量估算指标 三精密空调场所的冷负荷估算指标 电信交换机、移动基站(350-450W/m2) 金融机房(500-600W/m2) 数据中心(600-800W/m2) 计算机房、计费中心、控制中心、培训中心(350-450W/m2) 电子产品及仪表车间、精密加工车间(300-350W/m2) 保准检测室、校准中心(250-300W/m2) Ups 和电池室、动力机房(300-500W/m2) 医院和检测室、生活培养室、洁净室、实验室(200-250W/m2) 仓储室(博物馆、图书馆、档案馆、烟草、食品)(150-200W/m2) 四根据不同的情况确认制冷量 情况一(没有对机房设备等情况考察之下) 数据室估算:在一个小型的金融机房中,数据设备室通常的面积小于50平方,在数据设备、机房的建筑热量没有确定下来之前,可以按照金融机房通用的估计方法进行机房空调制冷量的预估:500w~600w/m2 ,部分高容量机房达到800w/m2。例如数据室的面积为50 m2 ,则所需的制冷量约为:25kw。选用3

大型数据中心空调制冷系统的节能技术研究

大型数据中心空调制冷系统的节能技术研究 发表时间:2019-10-24T14:39:39.913Z 来源:《基层建设》2019年第22期作者:蒋广才[导读] 摘要:近年来,我国的暖通空调系统有了很大进展,大型数据中心空调制冷系统的构成复杂,使用时耗能大,以环保为核心的大趋势下,节能是各类系统优化的基本方向。 山东科灵节能装备股份有限公司山东潍坊 262100 摘要:近年来,我国的暖通空调系统有了很大进展,大型数据中心空调制冷系统的构成复杂,使用时耗能大,以环保为核心的大趋势下,节能是各类系统优化的基本方向。本文分析了大型数据中心空调制冷系统的节能技术应用,提出了促进系统综合性能的优化及强化的措施,仅供参考。 关键词:空调制冷系统;节能技术;节能要点引言 目前在我国暖通空调系统当中所应用的节能环保技术正在不断的发展和进步,在保证能源消耗不再增长的基础之上,可以使暖通空调系统具备除湿、制冷、制热等不同的功能,从而能够实现对二氧化碳排放量的有效控制,降低温室效应,提高能源的利用效率。 1、大型数据中心空调制冷系统的特点 大型数据中心具有三大基础资源:机房空调建设,空调制冷,电力供应,占地面积为几万平方米。为了保证三大基础资源平衡,同时达到较高的资源利用率,通过调整电力供应资源和制冷资源来平衡整体资源匹配程度。单栋数据中心能耗占成本的76%,建设成本中制冷成本占21%,所以对数据中心的制冷节能是必要的。维修与维保两个降低能耗的方式,可以提升全生命周期,可以按时的掌握设备的工况,能够迅速地检测设备故障,高度的管理性是数据中心不可或缺的必要因素。 2、影响空调制冷能耗的主要因素 产品的设计、选型及安装决定了制冷系统的工作效率,主要的影响因素有以下几点:第一,换热温差。一般而言,蒸发器内制冷剂蒸发的温度低于大气中的温度,才能将热能转给制冷剂吸走,并且保持压力平衡状态。第二,膨胀阀开启度。根据过热度进行定期检测,不断校准,使其过热度保持在合适的范围内。第三,制冷产品应用范围越来越广,且能耗巨大。随着社会的不断发展,制冷空调应用于企业、商场、学校、住宅等领域,耗能急剧增加。第四,选用高效能的压缩机及蒸发器冷凝器结构及换热面积的优化配置,高效换热材料的应用。第五,制冷系统安装工艺的改进提高等。第六,先进电气控制系统的应用等。 3、大型数据中心空调制冷系统的节能技术 3.1可用度分析 数据中心的主要应用目标是用于对组织运作的数据进行处理。这样的系统可以从软件企业购入,也可以由组织内部进行独立开发。一般情况下通用的系统包括了企业资源计划和客户关系管理系统。整个数据中心的服务倾向综合性服务。这样的系统一般由多个主机构成,各个主机的运行都是独立的,掌管单一的节点,包括数据库、应用服务器、文件服务器、中间件等等。此外数据中心也经常用于对非工作站点完成备份。这些备份通常与备份磁带共同使用。将本地服务器信息录入磁带。除此之外磁带的存放也易受环境的影响。规模较大的公司,可能会将备份的系统信息传递到非工作空间。并且借助数据中心完成回投。备份在经过加密之后,可以通过互联网被发送到另一个数据中心当中,得到妥善保存。为了达成受影响后恢复的目标,许多硬件供应商都提供了新的解决方案,以保证短时间内的可操作性。包括思科系统,美国太阳微系统公司的Sun微系统,IBM和惠普公司共同开发的系统,都是创新性的解决方案。在实际的系统应用过程中,因为可用度关乎空调系统的质量,因此冷却水泵、冷却塔及冷水机组的可用度等,都关系到厂家。在自然冷却的情况下,设备的群组串联方式相对来说有更强的可用性。 3.2可维护性比较 由于机房具有一定复杂性,随着业务的发展,管理任务必定会日益繁重。所以在机房的设计中,必须建立一套全面、完善的机房管理和监控系统。所选用的设备应具有智能化,可管理的功能,同时采用先进的管理监控系统设备及软件,实现先进的集中管理,从而迅速确定故障,提高运行性能、可靠性,简化机房管理人员的维护工作。 3.3可管理性与节能性的比较 可管理型的衡量应首先从冷热通道的控制去分析,因许多用户会使用塑料板去隔离冷热空气,进而确保冷却的效率得到提升。冷热通道控制这一手段的应用能够确保数据中心的冷却效率有百分之十五左右的提升。实际转换成电力消耗的数值,在服务器数量五百,每度电费五毛的前提下,每年约省电费的数额为七万两千元。但是依照当前的运行成本及系统概况来看,因涉及许多环节的操作,所以这样的处理需要面对较大风险。近年来随着冷水机组制冷效率的不断提升,制冷过程当中水泵的耗能占比也更高,甚至能够达到整个系统能耗的百分之十五到百分之三十五,在设备群组模式下,调节水流量与扬程的方式更多,能够达成多台水泵的同步变频,并且对变频水泵的台数进行控制。在多冷源并联模式下是无法对台数进行控制的,所以设备群组方式的优势更为明确。 4、关于暖通空调系统的空调制冷管道的安装管理技术与安全对策 4.1制冷管道的敷设方式 制冷系统的排气管要设置在吸气管上端,两管设置在同一水平支架上,同时两者要确保在一定的距离,以确保避免出现吸气管道与支架直接接触产生相对应的冷桥问题。同时也要着重根据相关情况,把一个油浸过的木块放到管道之间的空隙缝内。敷设制冷剂的液体与气体管道在应用方面要与既定的设计要求相符合,用顺流三通接口。针对制冷管道弯道的设计,要用冷报弯设计,因为这样可以很大程度上有些要减少管内的秽物。针对地下敷设进行划分可以划分为三种情况,分别是:通行地沟敷设、半通行地沟敷设以及不通行地沟敷设。大多数时候都要进行通行地沟敷设的地沟的设置,冷热管要敷设在同一个通行地沟内部,低温管道的敷设要与其他管道有足够的距离,同时要设置在其他管道的下边。半通行地沟高度要稍微低于通行地沟,高温管与低温管不可以在同一个地沟内敷设。 4.2高效能的压缩机换热技术 制冷空调的核心技术是压缩机,提高压缩机的工作效率,不断改进结构,控制能耗,将传统的活塞式、旋转式压缩机逐渐用涡旋式压缩机,高效螺杆式压缩机及磁悬浮离心式压缩机取代并采用变频控制。选取优质的材料,使得压缩机传热效果增强,增加换热接触面积,提高换热性能,使热量及时排放有效地增加效绩。

数据中心机房制冷空调系统运维技术考核题目答案参考

数据中心(机房)制冷空调系统运维技术考核题目答案参考 类数据机房温湿度范围?单点温湿度波动范围? A类机房温湿度要求:23±1℃,40--55% ;单点温度波动小于5℃/h,湿度波动小于5%/h 参考:GB50174《电子信息系统机房设计规范》 2.空调回风参数:温度25℃,相对湿度50%;求露点温度? ℃参考:标准大气压湿空气焓湿图;此题关注会查空气状态点对应的露点温度和湿球温度 3.自然冷却模式、预冷模式、普通制冷模式的切换依据,对应的环境湿球温度值是多少? 湿球温度<10℃适合自然冷却模式,10--15℃之间适合预冷模式,>15℃适合普通制冷模式 参考:水冷自控系统供冷模式转换控制逻辑 4.机房空调送风距离多少米为宜?6-10m为宜 5.数据机房采用地板送风,风速范围多少m/s为宜? ( m/s最佳)参考:GB50174《电子信息系统机房设计规范》 6.数据机房新风正压要求数值? 机房与走廊;机房与室外参考:GB50174《电子信息系统机房设计规范》 7.数据机房新风量:人均参考值?每平米参考值?按机房换气次数每小时几次为宜? 按工作人员每人40m3/h;每平米25--30 m3/h;机房换气次数次/h(人员进出的机房取4次/h) 8.计算:900个标准机柜(13A)需要多大面积的机房合适?如选用艾默生冷水型机房空调P3150G至少需要多少台?按4-5台以上备份1台的标准,最多需要多少台?需要多大冷量的冷水机组提供冷源?需要多大风量的新风空调提供机房正压? 每个机柜加上冷热通道,平均面积取;×900=2070㎡(可分成4个㎡模块间,每个模块225台机柜) 每平米可用制冷量不能小于+每平米维护结构热负荷=每平米冷量需求 总冷量需求:×2070=3312KW 查艾默生冷水型空调样本:P3150G标准冷量为;需留有20%的预留(使用系数取) 艾默生P3150G冷水型空调单机净冷量:×= ○标准需求台数:3312÷≈28台;冗余配置(4+1):28÷4=7台(需配备机7台);含备机需28+7=35台 ○IT设备功耗转换成热量系数(取计算);13A机柜功耗,转换为热量÷≈ 总热负荷:×900=3429KW,除以P3150G空调单机净冷量≈29台,按冗余配置(4+1),需配备机7台;含备机需29+7=36台 ○空调系统制冷量取IT负载的倍;IT总负载:×900=2574KW;空调系统总制冷量:2574×= 除以P3150G空调单机净冷量≈28台,按冗余配置(4+1),需配备机7台;含备机需28+7=35台 ●需要冷量为3429KW(约1000RT)的冷水机组(离心式)1台提供冷源 新风量每平米25--30 m3/h(取30 m3/h);总新风需求30×2070=62100 m3/h,建议规划4个模块间单独提供新风62100÷4=15525 m3/h,需要新风量15525 m3/h的组合空调4台 9.制冷设备能效比EER是如何计算的? EER即制冷设备的制冷性能系数,也称能效比,表示制冷设备的单位功率制冷量。EER值越高,表示制冷设备中蒸发吸收的热量较多,压缩机耗电较少。数学计算公式:EER=制冷量(KW)/制冷消耗功率(KW) 单位:W/W或KW/h/W 10.冷站(动力站)COP是如何计算的? 冷水机组实际制冷量和配套设备(压缩机-马达+冷冻水循环泵+冷却水循环泵+冷却塔风机-马达)实际输入功率之比 11.数据机房PUE是如何计算的?绿色节能机房PUE标准? PUE是评价数据中心能源效率的指标,是数据中心消耗的所有能源(电能)与IT负载使用的能源(电能)之比PUE=数据中心总设备能耗/IT设备能耗;基准是2,越接近1表明能效水平越好 绿色节能机房PUE标准:以下 12.接题目8,匹配适合该冷水机组的冷却塔参数(流量)?冷却塔设在楼顶距冷站(动力站)20米,匹配适合该冷水机组的冷却循环泵参数(扬程和流量)?匹配适合该冷水机组和机房空调的冷冻循环泵参数(扬程和流量)(注:水泵出口至管网最高点垂直高度15米)? 水量需求:冷凝器()/RT 蒸发器(3/h)/RT

数据中心应用能耗监测系统

数据中心能耗监测系统 1、概述 随着通信事业的迅猛发展和通信技术的不断进步,以三大运营商为主体的通信企业和其他交通、银行、证券、保险、大型工矿、连锁企业的机房动力环境综合监控系统已经成为企业通信运维管理的重要组成部分,有关数据中心的能源管理和供配电设计已经成为热门问题,高效可靠的数据中心配电系统方案,是提高数据中心电能使用效率,降低设备能耗的有效方式。 2、参考标准 GB50174-2008电子信息系统机房设计规范 GB50462-2008电子信息系统机房施工及验收规范 数据中心能耗检测标准及实施细则 YDB037-2009通信用240V直流供电系统技术要求 YD/T585-2010通信用配电设备 YD/T638.3-1998通信电源设备型号命名方法 YD/T939-2005传输设备用电源分配列柜 YD/T944-2007通信电源设备的防雷技术要求和测试方法 YD/T1051-2000通信局(站)电源系统总技术要求 YD/T1095-2008通信用不间断电源(UPS) DL/T856-2004电力用直流电源监控装置 3、系统组成 数据中心主要包括变配电、供配电系统、UPS系统、空调制冷系统、消防、安防、环境动力监控、机房照明等。

数据中心智能监管方案可实现对数据中心机房内外的动力系统运行环境实时监控、设备维护与控制、电能质量管理、能源成本整体管理,提高监控的实时性和可靠性、提高能源的使用效率、优化能源成本、增强动力系统的可靠性和有效性。 数据中心的监控可以分为配电监测和机房环境综合监控。 1)配电监测系统 结合数据中心机房内外,实现从供电侧到用电侧的全面监测,分别满足数据中心交流和直流应用的监测要求。配电示意图如下:

能源管理系统与能耗监测的解决方案

能源管理系统与能耗监测的解决方案 1 概述 能源管理系统是以帮助工业生产企业在扩大生产的同时,合理计划和利用能源,降低单位产品能源消耗,提高经济效益为目的信息化管控系统。 通过能源计划,能源监控,能源统计,能源消费分析,重点能耗设备管理,能源计量设备管理等多种手段,使企业管理者对企业的能源成本比重,发展趋势有准确的掌握,并将企业的能源消费计划任务分解到各个生产部门车间,使节能工作责任明确,促进企业健康稳定发展。 能源管理系统的基本管理职能: ●能源系统主设备运行状态的监视 ●能源系统主设备的集中控制、操作、调整和参数的设定 ●实现能源系统的综合平衡、合理分配、优化调度。 ●异常、故障和事故处理。 ●基础能源管理。 ●能源运行潮流数据的实时短时归档、数据库归档和即时查询。 在我国的能源消耗中,工业与大型公建是我国能源消耗的大户,能源消耗量占全国能源消耗总量的70%左右,而不同类型工业企业的工艺流程,装置情况、产品类型、能源管理水平对能源消耗都会产生不同的影响。建设一个全厂级的集中统一的能源管理系统可以完成对能源数据进行在线的采集、计算、分析及处理从而实现对能源物料平衡、调度与优化、能源设备运行与管理等方面发挥着重要的作用。 能源管理系统(简称EMS)是企业信息化系统的一个重要组成部分,因此在企业信息化系统的架构中,把能源管理作为MES系统中的一个基本应用构件,作为大型企业自动化和信息化的重要组成部分,安科瑞(Acrel)公司的Acrel-5000产品以实时数据库系统为核心可以从数据采集、联网、能源数据海量存储、统计分析、查询等提供一个EMS的整体解决方案,达到公司调度管理人员在能源管控中心实时对系统的动态平衡进行直接控制和调整,达到节能降耗的目的。 2 系统软件 Acrel-5000能耗监测系统以计算机、通讯设备、测控单元为基本工具,为大型公共建筑的实时数据采集、开关状态监测及远程管理与控制提供了基础平台,它可以和检测、控制设备构成任意复杂的监控系统。该系统主要采用分层分布式计算机网络结构,一般分为三层:站控管理层、网络通讯层和现场设备层,如图1所示。

能耗监测系统

概述 为了响应国务院要求开展节能减排的号召,并完成国家“十一五”计划关于节能减排目标的要求,国家住建部下发《关于切实加强政府办公和大型公共建筑节能管理工作的通知》,通知要求深入推进建筑能耗监测体系建设和加强对空调温度控制情况的监督检查。住建部从2007年开始在北京、天津、深圳等试点城市推行建筑能耗监测体系的建设,但在对公共建筑空调温度控制的监督管理上却比较缺乏有效的手段。 建筑能耗监测系统实现对能耗使用的全参数、全过程的管理和控制功能,是能耗监测、温度集中控制和节能运行管理的综合解决方案。符合国家有关公共建筑管理节能的政策和技术要求,更是融合了能耗监测、空调温度集中控制和节能运行管理的整体解决方案,可对建筑能耗进行动态监测和分析,实现建筑的精细化管理与控制,带给用户新的价值体验,达到节能减排的效果。 建筑能耗监测系统 系统开发及设计依据 国家机关办公建筑和大型公共建筑能耗监测系统—— 《分项能耗数据传输技术导则》 《分项能耗数据采集技术导则》 《建设、验收与运行管理规范》 《楼宇分项计量设计安装技术导则》 《数据中心建设与维护技术导则》 《公共建筑室内温度控制管理办法》建科〔2008〕115号 《民用建筑节能条例》国务院令第530号 《公共机构节能条例》国务院令第531号 《国务院办公厅关于严格执行公共建筑空调温度控制标准的通知》〔2007〕42号 《国务院关于印发节能减排综合性工作方案的通知》(国发〔2007〕15号) 系统结构

建筑能耗监测系统以计算机、通讯设备、测控单元为基本工具,为大型公共建筑的实时数据采集、开关状态监测及远程管理与控制提供了基础平台,它可以和检测、控制设备 构成任意复杂的监控系统。该系统主要采用分层分布式计算机网络结构,一般分为三层:站控管理层、网络通讯层和现场设备层。 1)站控管理层 站控管理层针对能耗监测系统的管理人员,是人机交互的直接窗口,也是系统的最上层部分。主要由系统软件和必要的硬件设备,如工业级计算机、打印机、UPS 电源等组成。监测系统软件具有良好的人机交互界面,对采集的现场各类数据信息计算、分析与处理,并以图形、数显、声音等方式反映现场的运行状况。 监控主机:用于数据采集、处理和数据转发。为系统内或外部提供数据接口,进行系统管理、维护和分析工作。 打印机:系统召唤打印或自动打印图形、报表等。 模拟屏:系统通过通讯方式与智能模拟屏进行数据交换,形象显示整个系统运行状况。 UPS:保证计算机监测系统的正常供电,在整个系统发生供电问题时,保证站控管理层设备的正常运行。 2)网络通讯层 通讯层主要是由通讯管理机、以太网设备及总线网络组成。该层是数据信息交换的桥梁,负责对现场设备回送的数据信息进行采集、分类和传送等工作的同时,转达上位机对现场设备的各种控制命令。 通讯管理机:是系统数据处理和智能通讯管理中心。它具备了数据采集与处理、通讯控制器、前置机等功能。 以太网设备:包括工业级以太网交换机。 通讯介质:系统主要采用屏蔽双绞线、光纤以及无线通讯等。 3)现场设备层 现场设备层是数据采集终端,主要由智能仪表组成,采用具有高可靠性、带有现场总线连接的分布式I/O控制器构成数据采集终端,向数据中心上传存储的建筑能耗数据。测量仪表担负着最基层的数据采集任务,其监测的能耗数据必须完整、准确并实时传送至数据中心。

提升数据中心制冷能效

提升数据中心制冷能效 数据中心节能降耗应从两个方面入手,第一是减少数据中心IT设备对电能的需求,降低其能耗和发热量,第二是提高供电和制冷系统的效率,减少不必要的浪费。 数据中心机房单位面积能耗由10年前的400~500W/m2迅速升高到目前的800~1000W/m2,而且还呈现不断上升的趋势。尤其是目前高密度IDC机房设备集成度的提高,已经使单机架的功率大幅度提升。台式服务器机架功率为1.5kW,模块式服务器机架功率为10kW左右,现在最新的刀片式服务器机架功率高达30kW。高耗电,必然产生了高发热,因此IDC机房的空调需求量也大幅度增加。 1.针对数据中心机房IT设备用电功耗及机房散热要求。应采用相对应的机房制冷系统解决方案和机房散热方案: 1)当机房机柜功耗在3~6kW时,建议采用风冷或水冷空调系统,采用面对面,背对背的冷热通道分隔的机房气流组织进行规划和建设。在当地气候允许的条件下,可考虑能效比较高的水冷空调系统和自然风冷冷却方案。当机房局部产生热岛时,可使用有气流导向的变风量送风地板,增强机房热岛区的局部散热。 2)当机房机柜功耗在8~15kW时,建议采用封闭冷通道气流组织进行规划,采用风冷或者水冷空调系统。在机房局部功率产生热岛时,可使用EC风机与送风地板,增强机房热岛区的局部散热;在机房局部产生高功率热岛时,使用机房行间空调封闭局部进行内部增强快速散热。 3)当机房机柜功耗在15~25kW时,建议采用机房行间空调,机柜封闭增强机房

热岛区的局部散热,有条件可采用冷板式机柜,柜内热空气与冷却水在柜内进行热交换的冷却技术。 4)当机房功率大于25kW时,考虑更加高效的散热冷却技术,采用液冷技术,高密度服务器高度热品质冷却系统。 从以上方案,我们可以看出,对于传统的低功率机柜,利用风冷空调制冷技术即可满足其运行条件。当功率大于10kW时,需采用封闭通道并采用行间空调制冷。当功率大于15kW时,需采用冷板式制冷技术满足机柜运行需要。当功率大于25kW时,考虑更加散热高效的浸没式液冷技术。 云数据中心发展趋势为大规模、高密度机房,传统的空调制冷方式将很难满足未来的数据中心运行要求。如何更加高效节能,我们对比一下上述液冷技术路线与传统技术性能PUE。2. 不同冷却技术能耗对比对比传统空气冷却、冷板式、浸没式液冷,不考虑外界环境因素变化,三种技术对比如下:

常见数据中心冷却系统

常见数据中心冷却系统 由于数据中心的发热量很大且要求基本恒温恒湿永远连续运行,因此能适合其使用的空调系统要求可靠性高(一般设计都有冗余备机)、制冷量大、温差小和风量大。下面,我们简要介绍下适合数据中心部署的空调冷却系统。 1、风冷精密空调 这是数据中心最传统的制冷解决方案,单机制冷能力一般都在50到200KW之间,一个数据机房一般都是安装多台才能满足需要。下面是风冷精密空调的工作原理图。 风冷精密空调工作原理图 风冷精密空调一般采用涡旋压缩机制冷(一般安装在精密空调内),能效比相对比较低,在北京地区一般在1.5到3之间(夏天低,冬天高)。风冷精密空调在大型数据中心中使用存在以下不足: ●安装困难 ●在夏天室外温度很高时,制冷能力严重下降甚至保护停机

●对于传统多层电信机房,容易形成严重的热岛效应 ●需要开启加湿除湿功能,消耗大量能源 2、离心式水冷空调系统 这是目前新一代大型数据中心的首选方案,其特点是制冷量大并且整个系统的能效比高(一般能效比在3到6之间)。离心式制冷压缩机的构造和工作原理与离心式鼓风机极为相似。但它的工作原理与活塞式压缩机有根本的区别,它不是利用汽缸容积减小的方式来提高气体的压力,而是依靠动能的变化来提高气体压力。 离心式水冷空调系统

水冷冷冻机组的工作原理 离心式冷冻机组在小负荷时(一般为满负荷的20%以下)容易发生喘振,不能正常运转。因此,在数据中心水冷空调系统的设计中一般先安装一台小型的螺杆式水冷机组或风冷水冷机组作为过渡。大型数据中心的水冷空调系统一般由以下五部分组成,示意图如下。 水冷空调系统示意图 免费冷却技术指全部或部分使用自然界的免费冷源进行制冷从而减少压缩机或冷冻机消耗的能量。目前常用的免费冷源主要是冬季或春秋季的室外空气。因此,如果可能的话,数据中心的选址应该在天气比较寒冷或低温时间比较长的地区。在中国,北方地区都是非常适合采用免费制冷技术。

大型数据中心节能技术

大型数据中心节能技术 目前就职于微软的数据中心最有影响的专家Christian Belady在2006年提出数据中心能 源利用率(PUE)的概念。如今,PUE已发展成为一个全球性的数据中心能耗标准。数据中 心的PUE的值等于数据中心总能耗与IT设备能耗的比值,比值越小,表示数据中心的能源 利用率越高,该数据中心越符合低碳、节能的标准。 目前国内一些小规模的传统数据中心,PUE值可能高达3左右,这意味着IT设备每消耗1瓦特电力,数据中心基础设施便需要消耗2瓦特电力。据网络上收集的相关信息,目前GDS在建的4个机房在与第三方设计单位签约时,都是按照PUE值等于 1.8的标准进行规划的。世纪互联近五年建设的水冷数据中心的PUE值在 1.5左右。鹏博士酒仙桥大型数据中 心的PUE 设计值不超过 1.5。根据收集相关网站信息,全球最最节能的5个数据中心分别是:■雅虎“鸡窝”式数据中心(PUE=1.08) 雅虎在纽约洛克波特的数据中心,位于纽约州北部不远的尼亚加拉大瀑布,每幢建筑看上去就像一个巨大的鸡窝,该建筑本身就是一个空气处理程序,整个建筑是为了更好的‘呼吸’,有一个很大的天窗和阻尼器来控制气流。 ■Facebook数据中心(PUE=1.15) Facebook的数据中心采用新的配电设计,免除了传统的数据中心不间断电源(UPS)和配电单元(PDUs),把数据中心的UPS和电池备份功能转移到机柜,每个服务器电力供应增加了 一个12伏的电池。同时Facebook也在使用新鲜空气进行自然冷却。 ■谷歌比利时数据中心(PUE=1.16) 谷歌比利时数据中心竟然没有空调!根据谷歌公司工程师的说法,比利时的气候几乎可 以全年支持免费的冷却,平均每年只有7天气温不符合免费冷却系统的要求。夏季布鲁塞尔最高气温达到66至71华氏度(19-22℃),然而谷歌数据中心的温度超过80华氏度(27℃)。 ■惠普英国温耶德数据中心(PUE=1.16) 惠普英国温耶德数据中心利用来自北海的凉爽的海风进行冷却。 ■微软都柏林数据中心(PUE=1.25) 微软爱尔兰都柏林数据中心,采用创新设计的“免费冷却”系统和热通道控制,使其 PUE值远低于微软其他数据中心的 1.6。 从上面可以看出,降低PUE最有效的措施是采用免费自然制冷措施和替代传统的UPS 系统。对于数据中心,其能耗一般由IT设备能 源消耗、UPS转化能源消耗、制冷系统能源消 耗、照明系统和新风系统的能源消耗以及门禁、 消防、闭路电视监控等弱电系统能源消耗五部 分组成。如果需要降低PUE的值,就需要从以 下四个方面采取措施。 ■采用转换效率高的UPS系统。目前,新 一代数据中心的设计基本采用新型的高频 (IGBT技术)UPS系统,电源转换效率和功率 因数都比传统的工频(可控硅技术)UPS系统

数据中心空调系统节能控制

数据中心空调系统节能控制 一、制冷机组台数控制 通过对负荷侧温差及流量的测量,控制系统可获悉总体的负荷需求,此时根据制冷机组的形式和特性,采用合理的台数组合,可使多台制冷机组的综合能效达到最佳。以变频离心式水冷机组为例,两方面因素对台数控制的逻辑存在影响。一是效率较高的工况分布于机组部分负荷的区间,二则为冷却水温的变化对机组特性曲线具有显著的影响。 如下图所示,运行一台机组的效率曲线与运行两台的曲线,相交汇处(黑色圆点)即为增减台数的最佳时机,同理可见两台增至三台的切换点。而根据变频离心机的特性,加机切换点通常低于额定输出的90%。同时,随着冷却水温度的降低,机组最佳能效的区间更加向部分负荷偏移,增减台数的时机(黑色圆点)也显著向左偏移, 加机切换点甚至低于70%负荷。 上述特性意味着,制冷机组的台数控制逻辑,若能够利用这两个因素动态地选择增减机组的时机,则可发挥出潜在的节能空间。当然,不同形式的机组,如风冷、定频、螺杆等,均具有各自的特性,或在系统中存在混合搭配的应用,此时自控系统应因地制宜的规划台数控制的逻辑,以提高设备效率,节约系统能耗。

冷水机组开启台数控制图 二、变频风扇及水泵的台数控制 具备变频风扇的冷却塔以及变频水泵,在数据中心冷源系统中应用广泛。在控制此类机电设备时,除了根据被控对象进行PID调速控制外,合理地增减台数,也存在一定的节能空间。控制系统应根据设备厂家提供的效率曲线,在逻辑中定义频率达低限后减少台数,达高限后增加台数。 三、低负荷运行初期的节能控制 数据中心的负荷源于数据业务的多少,通常在数据中心基础设施完工后,数据业务会在一定时间里逐渐增加。而在初期阶段,可能存在数据业务量较少的一段时间。在这个时期,制冷系统的空气侧,可以通过与机房模块或冷热通道对应的空调末端调整来满足,而冷源侧将面临整体负荷较小,运行1 1台制冷机仍易进入喘震区的问题。 在项目负荷低的初期,可以利用蓄冷罐来解决低负荷的问题,在控制和安全考虑周全后,有比较好的效果。从控制逻辑上,从1 1的主机备份关系,变为制冷机与蓄冷罐的备用关系。即当蓄冷罐蓄冷量充足时,由蓄冷罐承担负荷,至蓄冷罐剩余储能接近当前较小IT负荷所需的15或30分钟紧急供应 量时,将之视为系统负荷的一部分,另制冷机组支持IT负荷的同时为它冲冷,此时制冷机组能也工作在较高出力状态。更严重的情况,若当前IT负荷低至一台制冷主机的20%,

大型数据中心制冷系统的三个关键

大型数据中心制冷系统的三个关键 目前,随着大型数据中心高密度服务器与低密度混合模式的出现,由于服务器的密度不均衡,因而产生的热量也不均衡,传统数据中心的平均制冷方法已经很难满足需求。 据统计,目前85%以上的机房存在过度制冷问题,而供电中只有1/3用在IT 设备上,制冷费用则占到总供电的2/3 。因此,降低能耗、提高制冷效率是大型数据中心建设的关键所在。北京世纪互联工程技术服务有限公司(以下简称BANYANO)于2008年12月,就大型数据中心制冷系统建设的几个关键性问题,发布了技术白皮书。 制冷模式的转变:集中制冷到按需制冷 在以往的空调系统设计中,多采取集中制冷模式,将空调房间考虑成一个均匀空间,按现场最大需求量来考虑。这种模式忽视了空间各部分的需要,缺少考虑制冷效率、制冷成本的意识。目前随着科学技术的发展以及高密度大型数据中心的建设需求,人们逐渐认识到按需制冷的必要和集中制冷的弊端。 据BANYANO技术人员介绍,“按需制冷”就是按机房内各部分热源的即时需要,将冷媒送到最贴近热源的地方。它最大的特点是制冷方式的定量化和精准化,从“房间级”制冷转变为“机柜级”制冷,最后到“芯片级”制冷。例如,在高密度大型数据中心的建设规划中,BANYANO采用了以“精密制冷”为核心的机柜级解决方案。将英飞集成系统的In-row制冷单元放在高密度服务器机柜旁边,针对每个热点进行降温,让冷热空气直接在机柜和空调之间以最短的路径循环,从而有效提高制冷效率。根据设备发热量的高低配置相应数量的制冷单元,以此做到按需供冷定量分配。与房间级制冷相比,In-row制冷对冷气的利用率达到70%,并能够处理更高的热负载密度。 送风方式的设计:上送风VS下送风 数据中心内显热庞大,潜热微小的环境导致需要大风量的空调系统。为保证数据中心内不同位置的IT设备都能处于适宜的温度和湿度,正确设计数据中心的送风和回风的气流组织成为大型数据中心制冷系统建设的重要环节。 建设大型数据中心制冷系统的三个关键</p

相关文档
相关文档 最新文档