文档库 最新最全的文档下载
当前位置:文档库 › 分析数据中心机房PUE值偏高问题及解决方案_机房360_中国绿色数据中心

分析数据中心机房PUE值偏高问题及解决方案_机房360_中国绿色数据中心

分析数据中心机房PUE值偏高问题及解决方案_机房360_中国绿色数据中心首页┊ IT专区: 绿色IT 数据中心 服务器 虚拟化 云计算 存储 安全
CIO帐号: 密码: 注册 忘记密码https://www.wendangku.net/doc/109289513.html, - 机房360
新闻 业界 展会 厂商 技术前沿 工程 常识 方案 招标 在建项目 产品 机房产品 机房IT产品 机房网络存储产品 机房配件 文库 术语 规范 常识
工具下载 企业 名录 社区 论坛 机房节能 专题 机房制冷 UPS 集中监控 发电机 防雷与接地 布线
在线投稿 投稿指南 机房360资讯通告:企业名录免费入库,详情参阅 收录规范。“知名讲师培训课程”助您成长,点击获取!

当前位置:首页 ? 分析 ? 分析数据中心机房PUE值偏高问题及解决方案 分析数据中心机房PUE值偏高问题及解决方案
来源:机房360 作者:小柯 更新时间:2010/8/18 0:53:51
摘要:针对国内数据中心PUE值偏高问题和新一轮节能改造的需求,业内用户和专家纷纷提出多种解决方案,本文作者深入分析数据中心常规制冷解决方案中地板下送风和冷热通道模式隐含的问题,提出通过配用通风强化防静电地板等简单易行的方法,来解决由于刀片服务器、虚拟化等技术的应用所带来的数据中心高热密度负荷问题及整体能耗飙升等系列难题。


一、冷却成为数据中心最有价值计划
随着电子信息系统机房IT设备高度的集成化,其能源效率偏差以及机房散热量日渐趋高的现象开始受到了各界强烈关注。
据权威部门统计,我国高端服务器集中的通信行业耗电在2007年就已达到200亿度以上,信息产业俨然已经成为一个高能耗行业。而服务器又是现在数据中心机房的核心,并且24小时运行。以我国服务器保有量为200万台,按每台服务器平均功耗400瓦,每年的耗电总量约为80亿千瓦时。

根据中国电信节能技术蓝皮书所载, 一般机房内芯片级主设备1 W
的功耗会导致总体耗电量达到2.68-2.84W,而其中机房空调冷却系统的耗电量约占机房总能耗的40%。由绿色网格组织(Green
Grid)所提出的电力效率指标P U E 数值( Power Usage
Effectiveness)是通过计算机房的总能耗与所有IT主设备能耗的比值而得出的。故可估算上述机房的PUE值至少为2.68-2.84。由此推算,我国数据中心机房消耗到空调冷却系统的能量至少为84亿千瓦时。这也就意味着为服务器提供冷却的机房空调系统能耗大约能达到我国空调设备每年总能耗1/4!

据称:Google公司的数据中心PUE年平均值可以达到1.21,中国Hp的新一代数据中心体验中心机房夏季PUE值可以达到1.6-1.7。这一指标如何实现?
据美国电力转换公司APC最近的统计数

据显示,数据中心的冷却成本大约占总能源账单的50%。而国际组织Uptime
Institute指出,由于数据中心机房内气流不适当,用于冷却的冷空气有60%都浪费了;数据中心的过度冷却(overcooling)差不多达到实际需求的2倍,目前多数机房存在过度冷却问题,相应的机房空调机组耗能也比设计工况增加耗电50%以上,最终造成机房居高不下的高额运行费用。

故此——优化数据中心冷却是排在第一位的最有价值的绿色计划!
二、数据中心高效节能冷却解决方案
由于现代电子信息系统机房中的空调负荷主要来自于计算机主机设备、外部辅助设备的发热量,其大约占到机房空调总负荷的80~97%;而在服务器、存储、网络等主设备中服务器的份额又大约占到设备散热量的80%。所以随着服务器集成密度的持续增高,服务器机柜设备区就成为了机房内主要的热岛区域。从机房基础架构而言,国家标准《电子信息系统机房设计规范》GB
50174-2008规定:“当机柜或机架高度大于1.8m、设备热密度大、设备发热量大的电子信息系统机房宜采用下送风空调系统。”而下送风空调系统是将抗静电活动地板下空间作为空调系统的送风静压箱,空调机组由通风地板向机柜、设备等热负荷送风。可是机房内空调冷却系统的送风按照流体力学伯努利原理所陈述的气流特性——“风速大的压力小”表明,受此特性制约的空气流会呈现靠近空调机组的通风地板出风量较小;又由于机房空调系统的靠近空调机组的前部通风地板已然输送出了一定的风量,后部的通风地板的送风量即会显现有所减少;而到了地板末端又相反;又因为现有数据中心机房面积为了规模效应而愈建越大,一般安置的机房空调机组的方式是长距离的气流对吹,由此会出现在抗静电地板下产生风压相抵、通风地板送风量减小的现象。

从以上分析可见将抗静电活动地板作为空调系统送风静压箱进行设计时,其参数选定的误差可能会很大,这必将导致机房投入运行时主设备运行的安全性、可靠性及机房整体能耗表现得差强人意。

现代机房在设计空调冷却系统的送风气流时一般是参照设备发热量、机柜前后温差,以及地板高度和地板下有效断面积等因素,再按照空调机组送气量的30-40%来计算通风地板开口面积;并且规定用于机柜冷却的送风口必须能够提供大于机柜冷却所需的风量。理想状态下机房内活动地板下的送风风压按照送风静压箱的设计模式姑且认定均匀风压为20Pa左右;机房通风地板送风风速按照国家标准要求取值3m/s;在实际应用中选用通风率(通风量)高达25%的通风地板,

则当处于理想流体状态下的单个通风地板理论上可以供应的最大送风量约为500立方英尺/分钟(849.45m3/h)或是其能提供约3.125kw的制冷量。而现实运行中的机房通风地板最好的送风风速也就是1.5m/s;这就严重影响了空调系统的冷却效果,使机房空调、以致整个机房的能效偏低。

由于现在机房服务器类负荷的最高散热量近年来已攀升至每机柜20KW以上;而原有地板下送风机房精密空调系统理想送风状况下的机房单位面积最大供冷量为4KW/㎡(更大供冷量所配置的空调机组送风量也相应增大,其送风风压足以把地板给吹起来),已无法满足其需求;并直接制约着高集成度IT设备在电子信息系统机房行业内的推广应用。

另外,现在IT行业服务器应用中普遍存在利用率低下的现象,从而引致现有的数据中心机房诸多能效问题。故IT行业多是采用虚拟化技术来整合服务器和存储设备,以图机房PUE值得以降低。但是如果IT部门对其服务器和存储进行了虚拟化,将IT电力消耗减少了以后,事实上很可能会产生更加不利的电力使用效率。譬如将机房内部分服务器进行了虚拟化应用,虽然能够降低IT设备电力消耗大约20%,但如果不改变机房现有基础架构和使用面积,就无法避免机房出现过冷现象,也就无从降低机房空调系统能耗。这会使得PUE值反而升高。所以IT业界进而采用更直接的手段——测定服务器的利用效率,以图改善单纯采用PUE能效值进行机房能效评估所造成的误导。另外还有的是采用SPEC芯片利用效率测试工具类型的软件来监测IT设备的数据处理流量/秒(或数据吞吐量/秒)与IT设备的功耗之比的技术。

随着IT虚拟化技术的大量应用,机房内势必会出现散热点趋向于关键的、主要运行的高热密度设备转移的现象。导致机房内会出现少量高热密度的热岛区域,而其它非主要(辅助运行)设备区域的空调环境冷却需求度相对却较少的状态。此时如果不改变机房现有基础架构和使用面积,并为了避免主设备宕机或使用寿命的减少而必须维持机房内的少量高热密度散热点微环境状况不超标,就无法避免地出现机房整体区域过度冷却的现象。造成机房能耗及PUE能效值显现得奇高。

据Uptime学会统计目前全球85%以上数据中心机房存在过度制冷的问题。针对机房过冷问题,在最近的调查显示数据中心机房实际提供的冷量平均是热负荷所需冷却功能的2.6倍;即使这样机房出现过热部位的可能性还是达到了10%。所对应的机房空调机组耗能也比设计工况增加能耗大约50%以上。

上面所陈述的机房实际状况说明现代空调系统按照整体区域平均

冷却模式设计的机房空调环境如应用于高热密度或高散热量的负荷就无法避免地采用了过度冷却方式,导致机房能耗超高,能效值差强人意。这也意味着机房环境空调冷却领域必须进行相应的按需冷却理论和应用方面的创新,以应对服务器等类型的机房主设备发展需求和社会对其能源利用效率的要求。

针对上述数据中心机房能效现状,我们提出具体的解决方案是:首先,通过对整个数据中心的红外温度热场分布以及气流流动情况,准确找出问题点以便用来改善数据中心的热效率。帮助用户建立他们数据中心精确的模型,提出数据中心地板室温以及返回天花板静压模型的能力,在温度调节设置时从4个CRAC边界条件中选择设定,并通过CFD方法能够得到流动和热传递的耦合解,用以正确说明气体流动和热的交换;根据得到的PDU具体热负荷来提供数据中心的评估报告,包括对数据中心气流和热载荷的评估,当风量或气流的冷却能力不能胜任的时候对用户提出警告,并提供综合的冷却能源审计报告,包括CRAC、机架和地板气流性能的详细分析报告。

其次,在送回风不畅的机房区域施行将原先的通风地板更换为高通风率的通风地板,以辅助下送风机房空调的送风效果。由于现有电子信息系统机房的气流组织现状十分复杂,导致主机房高热密度负荷不能及时被空调机组所冷却,所以须在主机房高负荷服务器机柜前方更换专用的风机通风地板;还可通过集约探测分布式群控风机地板,高效节能整体地解决机房服务器机柜冷却难题。

进而,再通过上述控制系统的上位机平台实行调整机房空调的温湿度设置参数,使之设定在20—25℃/40—55%Rh的合理范围内,让机房空调机组系统达到既满足机房设备冷却所需;又避免出现机房过度冷却的效果。

在应用以上步骤的前提下;再对机房空调系统采用联控运行的模式,以达到最优散热效果的情况以及避免出现空调机组功效抵消的状况;最终可以实现提高数据中心的能源利用效率、节约机房散热之冷却系统的电耗。经优化改造后的机房其PUE值类比可达到Hp公司的动态智能散热解决方案(Dynamic
Smart Cooling)之降低数据中心散热成本40%的同级别水平。
综合以上数据进行分析,可以得出结论:配用了红外探测控制可调速风机通风强化全钢防静电地板(每块地板承重均布负荷>1400kg)的机架至少可以满足4KW(即标准19''机柜能够满足输入功率4KVA,或者是能够装载下20个标称200W的1U服务器)热负荷的散热;如配用特殊定制高风量风机的通风地板可满足最大25KW/机架热负荷的散热需求,足以解决诸

如刀片服务器、或虚拟化应用等类型的高热密度负荷进入机房场地后的局部热点问题;进而可解决数据中心机房整体能耗飙升等系列难题。


本文地址:https://www.wendangku.net/doc/109289513.html,/news/2010818/n03439292.html 审核:admin 网友评论:0 条
版权声明:凡本站原创文章,未经授权,禁止转载,否则追究法律责任。上一篇:谈数据中心服务绿色化的作用和意义
相关阅读·物极必反—企业不应过分追求PUE·你的数据中心PUE值是几?·美国:就数据中心能效(PUE)判断标准近日达成一致·能效(PUE)判断标准指导数据中心部署·利用PUE值衡量电源使用率为何遭质疑
相关评论
当前没有评论信息
用户名 密码 (匿名用户不需要填写用户名和密码) 观点:很不好 不好 还行 不错 支持 Ctrl+回车 提交评论.
请自觉遵守互联网相关政策法规,评论字数2-200字.请不要发广告。您发表的问题不代表本站观点。一切后果由发表者负责。新闻产品
最新资讯 聚焦数据中心 把脉云计算
空调安装规范标准
十二个值得你关注购买IDS和IPS的问题
群发邮件蠕虫病毒突袭互联网
迎接万亿移动应用大时代——2010中国移动
制冷制热原理简介
如何挑选适合自己的VPS
UPS应对负载提供符合要求的常规电性能指
技术:GNS带动文件虚拟化
微软就软件托管服务故障向用户致歉
展会信息
·“拍出你色彩”P&T手机摄影大赛开幕
·融合创新、合作共赢
·参与信息通信盛会 赢取观众大奖
·[南京]“中小型数据中心建设新理念、新技术”
·2011机房创新技术与节能减排展览会暨论坛
·GSM协会和CDMA发展组织将派员出席“ICT中国?2
·2010年中国国际信息通信展览会千元大奖征集主
·2010年中国计算机用户协会机房设备应用分会年
·2010中国绿色数据中心高峰论坛(第二届)
·2010中国下一代数据中心建设与云计算应用大会
·广东科士达宣布将盛装亮相2010中国国际金融展
推荐图片
焦民:循序渐进搞IT建设
前段时间一首《李雷和韩梅梅之歌[详细]
UTM技术引领安全行业的潮流
2004年9月美国著名的IDC提出将防[详细]
十要点让企业数据备份和恢复不
中小企业如何制定适合自身需求的[详细]
综合布线水平子系统设计要点和
水平子系统由每层配线设备至信息[详细]
UPS防护分类及其定义说明
建议用户为UPS及其负载单独设置[详细]
携手云计算——共创低碳家园
全球能源的消耗速度随着人类的活[详细]热门话题
《电子信息系统机房设计规范》GB 50174-2
发电机概述、结构和工作原理及分类
高等级数据中心的规划建设
发电机组专业术语

中英文对照大全
世纪互联工程技术服务有限公司
惠普DL380 G6机架服务器性能评测
未来十大IT技术展现:虚拟化技术大盘点
中型机房工程解决方案
机房外包服务
显热与潜热显热、显热比
技术社区
·IT管理技术:选择和评判流量管理产品
·IBM“软硬”通吃 美国科技业上演并购大戏
·IBM“软硬”通吃 美国科技业上演并购大戏
·IBM“软硬”通吃 美国科技业上演并购大戏
·“刀片智尊,慧聚云端” IBM展示刀片创新
·IBM Rational:助推中国软件园经济发展
·IBM“智慧”云计算刀片服务器选型指南
·Fermi Tesla M2050进驻IBM高性能服务器
·蛋型蜗居-太有创意了!
·世界最小灵长类动物眼镜猴体长仅15厘米
·一句话语录
·Facebook网站盈利主管离职
·PayPal停止维基解密账户 切断其资金来源
·IDC:谷歌移动搜索份额增逾一成 雅虎微软下
·无线网络基础知识:认识无线网络的整合
·防止服务器数据意外丢失的方法盘点
网站首页 | 数据中心 | 机房工程 | 机房节能 | 机房标准 | 机房产品 | 关于我们 | 联系我们 | 招聘信息 | 广告服务 | 友情链接 |
网站地图 | 版权声明
? CopyRight 2009-2018, https://www.wendangku.net/doc/109289513.html,, Inc. All Rights Reserved


相关文档
相关文档 最新文档