减少房间级旁通气流,为改善数据中心制冷量与降低运营成本创造机会

从对数据中心内制冷单元运行勘测数据来看,发现有不少冷量由于没有被有效利用而导致流失,这些冷量若被善加利用,可以有效改善数据中心制冷量并降低运营费用。冷量流失的根本原因在于房间级旁通气流。

在数据中心领域,业界人士正不遗余力将气流组织管理(AFM)解决方案作为一种提高运行可靠性、降低运营成本以改善制冷能力的方式进行推广。

众所周知,在高架地板上的电缆出口处安装橡胶密封圈以及在机柜中没有放置服务器的地方安装盲板是消除热点的有效方法。但是,在使用气流组织管理(AFM)解决方案(如冷/热通道封闭)之前,这一简单的方法却没能得到足够重视,很多数据中心经常忽略不做或者嫌麻烦,只做了很少一部分。

尽管目前有很多种气流组织管理(AFM)和通道遏制解决方案,可对于大部分数据中心而言,数据中心内现有制冷量已经是所需制冷量的四倍,因此,在很大程度上,这些数据中心只需要通过合理规划、改善气流组织,就可以提高制冷效率,并能创造更多的潜在价值,只是这种优势目前并未得到认可。

大家对旁通气流有一个误区,认为只要管理高架地板上开口、或者采用通道气流遏制系统,就会消除旁通气流。事实上,这些解决方案虽然解决了进风温度问题,也会降低风扇的运行成本,但房间中旁通气流的体积是保持不变的。检测和纠正大家对于旁通气流的全面认识,可以更好的解决这个问题。

旁通气流的发展:

早在10年前, Uptime Institute就发表了第一篇关于旁通气流的文章。在由 Uptime Institute和Upsite Technologies的工程师引导的这项研究中,对高架地板中旁路开口与固定开孔的比例进行量化(例如:风口地板等)。旁路气流最早被提出就是以高架地板上的未经管理的各种开口作为研究领域的。虽然这些开口会产生旁通气流,但它们并不是造成旁通气流的原因。

旁通气流是指从制冷单元出来的气流,没有通过IT设备就直接返回制冷单元的那部分气流。此外,将多次通过IT设备的气流定义为IT设备废气循环。对于数据中心内的气流,最理想的情况是所有由制冷单元出来的气流在返回之前,都正好一次通过IT设备。由制冷单元提供的任何大于IT设备消耗的气流,形成了旁通气流。

在最早的Uptime Institute研究表明,平均有60%的数据中心内的制冷量是通过未密封的电缆口以及设计过大的风口地板流失掉的。最近,Upsite Technologies针对45个数据中心进行的调研表明,平均48%的气流都通过未密封的电缆出口和开孔率过大的风口地板中流失出去的。这些统计数据显示在过去十年中,通过采用气流组织管理方案(AFM)解决数据中心气流问题之后的效果并没有预期好。因此,需要对气流组织(AFM)的基本原理有一个更全面、客观的了解。例如,在Upsite研究的的数据中心中,有很多已经采用通道气流遏制系统,却没有对地板下送风区域做好密封处理。

对旁通气流的一些误解

管理高架地板上的开口是十分必要的,因为经过冷却处理的气流只能是通过数据中心内的开口才会流失(风口地板或格栅风口板)。但是,对于管理高架高架地板开放区域到底有多少益处,却存在几个误区。

业内有一个普遍的误解:如果电缆出口被密封或者风口地板被适当的管理,旁通气流量就会减少。这有可能会发生,但事实上,在大部分数据中心都存在过剩的制冷量。这些过剩的制冷量产生的气流由于电缆出口被密封处理以及对风口地板的开孔率进行调节管理,会使旁通气流转移到冷通道。

下图中的箭头和数字表示数据中心内气流移动的数量与方向。为了大家看清楚,这张图简化机柜和冷却单元的数量,但是该比率可应用于具有许多冷却单元以及多列机柜的房间。

  图1: 典型气流量

图1显示没有对高架高架地板开放区域管理的典型的数据中心。制冷单元提供10个单元的冷却气流量。未密封的电缆出口共释放出6个单位的冷却气流量,并在冷通道的风口地板释放出4个单位的冷却气流量,这也就是意味着IT设备总共消耗了4个单位的冷却气流量。在这种情况下,风口地板释放出的气流量等于IT设备消耗的气流量。数据中心内唯一的旁通气流是从未密封的电缆出口处流失的气流。

  图2:密封高架高架地板后的气流

图2显示高架地板开放区域得到完全密封处理后的情况。

现在,从未密封的电缆出口流失出去的6个单位的气流也从冷通道中送风口出来。因此,来自制冷单元的10个单位的制冷量都送达到冷通道,但由于IT设备只需要4个单位的制冷量,所以剩下的6个单位的冷量作为旁通气流离开冷通道。该示例表明,改变制冷单元制冷量是改变机房内旁通气流量的方法之一。

还有一个误解是密封电缆出口和其它原因导致的旁通气流导致制冷单元回风温度升高,从而提高制冷单元使用效率。

如图所示,消除旁路气流方式之一是密封好高架地板上电缆开口;与此同时,这么做可以增加风口地板以及格栅风口地板送风量以及消除机柜内部热点,增加IT设备制冷量,但回风温度却不变。制冷单元的回风温度,以及它的效率和容制冷量,都取决于送风量、热负荷,以及自动恒温恒湿装置下设定的回风温度。

因此,提高制冷单元回风温度设定值是提高制冷单元效率和制冷量以及实现气流组织管理成果的全部益处的唯一方法。

许多数据中心已经实施了气流组织管理方案,并看到了如下优势:

l 提高IT机柜进风温度

l 提高IT设备可靠性

l 增加风口地板送风量

然而,这些数据中心中的大部分还没有改变制冷单元回风温度的设定值,降低风扇转速,或关闭过量的制冷单元。他们并没有意识到这么做带来的潜在的价值:

l 提高制冷单元效率

l 增加制冷单的制冷量

l 降低运营费用

改善旁通气流的四个步骤:

通过全面了解旁通气流界定和来源,数据中心管理人员可以从中发现增加制冷量和降低运营成本的重要机会。这可以归结为四个步骤。

备注:为确保IT设备不受高温影响而导致宕机,作为优化制冷系统的一部分,在对IT设备实时监控的同时,也要重视对气流组织以及制冷系统的基础设施的优化,从而更有效的保证设备正常运行。数据中心制冷量系数(CCF)取决于许多因素,例如(但不限于以下因素):制冷单元规格(尺寸)、制冷单元数量和位置、数据中心整体规划、热负荷分配、高架高架地板高度及顶板高度。

第一步:

测量数据中心内CCF值(冷却容量系数),获得改善制冷系统的第一手数据。如果制冷单元具有定速风扇,或风扇正全速运行,那么CCF就是数据中心内旁通气流值。CCF值等于总制冷量(千瓦)除以110%IT关键负载(千瓦)。一旦明确数据中心CCF值,就可以采取适当方式对制冷系统进行调整,改善气流组织。

第二步

改善气流组织,做好三件事。这三件事,用英文来讲,就是三个R,:1.Raised floor(提高高架地板高度),2.Rack(机柜气流管理),3.然后Row(行间气流管理)。(建议按此顺序改造气流组织)

⒈管理高架地板板上、地板下开放区域:密封电缆出口和对地板开孔位置进行处理;检查地板下周围墙壁是否有未做密封处理的开孔或穿洞;密封这些穿孔需用防火材料。

⒉对IT机柜内进风口位置(机柜正面)垂直面的所有开放区域进行密封处理。为机柜安装盲板,对机柜底部空隙做好密封,安装机柜侧板。

⒊填充未放置IT机柜的空间或机柜间的空隙。当机柜密度足够高或者想要得到更高效率的时候,封闭冷通道/热通道一种选择。

第三步

接下来,改变制冷基础设施

l 提高制冷单元回风温度设定值。将设定值提高,不超过IT设备进风温度的最高值。

l 关闭过剩的制冷单元,或降低变频制冷单元的风扇转速,如风扇不是变频的,建议更换为变频风扇。。

第四步

最后,确认以上步骤是否都做到,确认制冷系统已进行优化。

在对制冷单元重新设定进风温度、回风温度后,可能需要调节风口地板以及格栅风口地板的数量和位置, 从而使IT设备进风温度低。

管理气流组织最终目标是尽可能提高制冷单元温度设定值,尽可能运行更少的制冷单元,或能降低风扇转速,而使IT设备的进风温度超过最高值。请记住,对制冷单元设置冗余是很必要的,以便当制冷单元出现故障时,有足够的制冷量来支持负载。配置多少冗余制冷单元的数量取决于很多因素,比如:高架地板的高度,地板下面的障碍物,机柜的布置,气流组织管理的有效性,数据中心负载的变化,房间规格等。

此外,通过气流组织管理方案气流得到改善后,将可能提高制冷单元温度设定值或者进一步降低风扇转速。例如,彻底检查和调整风口地板的数量和位置后,可以将温度设定值提高几度。接着,再安装盲板,等填充机柜行间空隙后,可将制冷单元温度设定值再提高几度。

结论

基于目前数据中心冗余制冷容量的数据,运营商和管理人员经常面临着挑战,要量化数据中心内旁通气流和制冷量过剩的问题。事实上,旁通气流问题在整个行业是十分普遍的。

解决方案的范围从密封垫圈和盲板到封闭冷、热通道方案都是必要的改善措施,但是,为了通过提高制冷量中实现更大的经济效益,需要在制冷基础设施中进行改变:更改制冷单元温度设定值、降低风扇转速或关闭过剩的制冷单元。

如果旁通气流没有被看作数据中心高架地板中的微不足道的打洞或者开孔的话,它应该能够被业界更多专业人士认同,同时会有机会会被量化,从而能更好为改善制冷系统,降低运营费用做出贡献。

本文转自d1net(转载)

时间: 2024-10-21 23:12:29

减少房间级旁通气流,为改善数据中心制冷量与降低运营成本创造机会的相关文章

五种简单易行的改善数据中心能效方法

本文将为大家简单介绍五种简单易行的改善数据中心能效方法的相关内容,以下是文章的详细内容,有兴趣的读者不妨看看此篇文章,希望能为各位读者带来些许的收获. 有时,http://www.aliyun.com/zixun/aggregation/7432.html">解决问题最简单的办法也是最容易让人忽视的办法,而且成本也不是很高.以下就是5个简单易行而且成本低廉的改善数据中心能效和降低能耗的方法. 达拉斯数据中心设计公司Digital Realty Trust的工程副总裁Jim Smith说:&

亚马逊承诺将提高数据中心冗余 改善数据中心负载均衡

亚马逊网络服务(AWS)从都柏林数据中心停电事故中学到了很多的经验教训.该公司表示,他们已经从此次事件中充分总结了经验教训,将改善数据中心电源冗余.http://www.aliyun.com/zixun/aggregation/13996.html">负载均衡以及当云计算出现故障时的通信的方式. 检验报告对造成停电的原因进行了深入的研究,此次停电事故影响到了亚马逊的EC2(弹性计算云Elastic Compute Cloud).EBS(弹性数据 块存储Elastic Block Store

气流遏制系统对数据中心能效和温度的影响

较高的能源成本和激增的数据中心能耗已迫使数据中心专家开始重新思考其数据中心制冷的策略.如EYP Mission Critical公司的Bruce Myatt所言,"冷热气流的隔离是当今新建和改建数据中心可以采用的最具前景的节能增效措施之一".除了能效方面的优势外,气流遏制系统可以使众多IT设备进风口温度保持一致,从而消除在未采用气流遏制系统的传统数据中心架构中经常出现的局部热点. 一.气流遏制系统介绍 我们首先了解一下常用的冷热通道气流遏制系统.值得注意的是部署通道气流遏制系统首先要求

改善数据中心性能的三种方法的比较

在涉及到您企业数据中心硬件性能的提升改善时,拥有刀片服务器架构显然是大有裨益的;而拥有超融合基础架构也能够带来诸多方面的好处.鉴于这两者都能够为企业提供精简的计算,故而想要在两者中作出取舍的决定无疑是一个非常困难的选择.而相信本文接下来的分析或将可以帮助到您企业作出决断. 在本文中,我们将为广大读者诸君比较使用刀片服务器架构或超融合系统各自的优缺点,并进行综合的权衡.如果超融合基础设施系统不是您企业的最佳选择,您还将看到融合基础设施能够为您企业提供些什么. 对于业务正在稳步增长的企业组织而言,贵

减少数据中心能耗的五种方式

摘要:现在有五个秘诀和其他较长远的谋略将帮助您遏制在数据中心使用的能耗问题.重新设计冷却系统,减少数据中心的功耗. 削减数据中心的发电量,降低数据中心的消耗,并不一定是棘手的,但在IT.冷却和电源基础设施方面,它确实需要一个综合办法.一数据中心顾问兼首席技术官说:"如果你看不到数据中心在芯片的实用投入,然后再返回到电力和冷却,你就错过了目标."现在有五个秘诀和其他较长远的谋略将帮助您遏制在数据中心使用的能耗问题. 1.不要忽视明显的东西 留出在地板下的密封洞;安装在机架部分的空板不要去

高德地图独家秒级上线多条重点道路 数据优势大幅领先

智能手机和定位导航技术的快速发展,让手机地图逐渐成了人们出行必不可少的生活应用.而随着我国城市道路建设的不断加快,用户对于手机地图中道路数据的要求也越来越高,不但要求数据准确,更新速度也必须要快.于是,如何始终保持地图数据的新鲜性,第一时间更新重点道路数据,极大程度上影响用户体验的优劣. 作为国内唯一一家在互联网产品和地图数据均占据专业领先地位的互联网地图厂商,高德地图一直以来都在以最快速.密集的更新频率为用户提供最准确.实时的交通数据,并在基础道路数据的更新上保持领先.近日,高德地图就独家率先

MySQL改善数据装载操作效率的策略

[导读]本文介绍MySQL改善数据装载操作效率的策略.多时候关心的是优化SELECT 查询,因为它们是最常用的查询,而且确定怎样优化它们并不总是直截了当.相对来说,将数据装入数据库是直截了当的. 多时候关心的是优化SELECT 查询,因为它们是最常用的查询,而且确定怎样优化它们并不总是直截了当.相对来说,将数据装入数据库是直截了当的.然而,也存在可用来改善数据装载操作效率的策略,其基本原理如下: 成批装载较单行装载更快,因为在装载每个记录后,不需要刷新索引高速缓存:可在成批记录装入后才刷新. 在

会员通、服务通、商品通、营销通,全域大数据解决方案有秘诀

全面赋能,双11电商解决方案上新,全新75折:https://www.aliyun.com/solution/ecommerce/act/huhang1111 9月23日由阿里云主办的第五期<电商大咖直播:备战双11最佳实践>线上分享圆满结束,来自网聚宝的首席架构师刘立兼分享了网聚宝全域大数据解决方案,他对电商的现状进行了分析,提出了电子商务存在的问题,深度解析了网聚宝基于企业业务中台的会员通.服务通.商品通.营销通. 本次视频直播的整理文章整理完毕,如下内容. 电商现状 电商零售属于电商的一

改善数据访问:HBase、Sqoop以及Flume - 产品和技术

改善数据访问:http://www.aliyun.com/zixun/aggregation/13713.html">HBase.Sqoop以及Flume 发布时间:2012.04.16 14:38      来源:和讯     作者:和讯 Hadoop核心还是一套批处理系统,数据加载进HDFS.处理然后检索.对于计算这或多或少有些倒退,但通常互动和随机存取数据是有必要的.HBase作为面向列的数据库运行在HDFS之上.HBase以Google BigTable为蓝本.项目的目标就是快速在