数据中心节能——冷热气流隔离
- +1 你赞过了
【文章摘要】传统数据中心冷却未进行合理气流管理,超过60%的冷量因为旁路、回流、冷热空气分层等浪费。局部热点过多导致制冷设备过度规划及冷量的极大浪费。冷热气流混乱是导致冷却效率低下的主要原因,而如何进行气流管理并有效实现冷热隔离成为重点。而根据TechTarget 2010年统计结果显示,国内仅约为30%的用户有采用冷热气流隔离。
1.引言
“十二五”是我国兑现哥本哈根承诺的最重要五年,节能是国家“十二五”的重中之重。
工信部“十二五”规划指出中国数据中心碳排放在“十二五”五年期间将增加一倍;
Forrester研究公司2011年9月的研究报告《数据中心电力和冷却热能消耗》显示,目前能源成本大约占到数据中心设施平均运营成本的70%;
制冷系统相关耗电占据数据中心运行耗电约37%;
调查显示:国内数据中心建设的投资年增长率超过20%
由此,数据中心节能危机日益加大,如何提高其能源效率成为当下热点话题。
2.传统数据中心分析
传统数据中心冷却未进行合理气流管理,超过60%的冷量因为旁路、回流、冷热空气分层等浪费。局部热点过多导致制冷设备过度规划及冷量的极大浪费。
图1 气流回流示意图
图2 气流旁路示意图
图3 气流分层示意图
3.解决思路
由以上看,冷热气流混乱是导致冷却效率低下的主要原因,而如何进行气流管理并有效实现冷热隔离成为重点。而根据TechTarget 2010年统计结果显示,国内仅约为30%的用户有采用冷热气流隔离。
图4 冷气流抑制方案
图5 热气流抑制方案
4.案例CFD分析
以一小型数据中心机房为例,利用Future Facilities公司的6Sigma DC软件,建立一个虚拟数据中心,模拟内部各IT设备、制冷设备、电力设备等气流流动、温度、静压等运行分布状况,分析传统冷却与增加冷热气流抑制系统后的性能及PUE改善状况。
机房概述
面积50m2,IT设备共80个、功率共13.92KW;30KVA PDU 1个;30KVA UPS 1个;20KWACU 3台。
CFD建模及仿真
图6 原机房示意图(①机柜;②ACU;③PDU;图7机房原方案空气流场图
④UPS;⑤地板格栅;⑥高架地板)
图8冷气流抑制流场图(采用Eaton气流抑制系统) 图9热气流抑制流场图(采用Eaton气流抑制系统)
结果统计
参数对比如下:
说明:以上PUE值统计未纳入照明,仅进行增加冷热气流隔离后性能改善及节能对比。
由上表看出:采用冷热气流隔离后,气流旁路、回流、冷热分层等现象得到很好解决,性能提升明显。采用冷气流隔离与热气流隔离所实现节能效果基本一致,可具体根据用户需求及其机房建筑环境确定。
用户收益
PUE值由之1.884降到1.506,节能20%;
用电量节省:46165KW·h/年,二氧化碳减排量29吨/年;
制冷设备:30KW ACU数量节省2台。
5.结语
本文主要分析了当前数据中心冷却所存在的普遍问题及提出冷热气流隔离及密封思路,结合CFD软件仿真分析了采用冷热气流抑制方案后所带来客户收益。随着全球对能源问题的重视,如何有效降低数据中心PUE成为趋势,而冷热气流隔离及密封方案以其成本低廉、改善明显、易实现等特点必将在国内普及应用。
最新资讯
热门视频
新品评测