数据中心冷却最常见的10大问题

虽然数据中心运营商的冷却管理比十年前要好得多,但许多设施仍然面临着容量不能充分被利用及浪费能源等问题。数据中心冷却专家表示,气流管理的最终目标是更好地控制IT进气口的冷却温度设定值,同时使得传送至数据大厅的空气量最小化。下面是数据中心冷却中最常见的一些问题,如下:

1、太多的开孔地板:在热通道和空白区域放置开孔地板是毫无理由的。这样会浪费冷却能力。还有可能是在机架的进气口放置了太多的开孔地板。IT机架顶部的温度低于正常温度便是一大危险信号。

2、隐藏的泄漏:冷空气从活动地板下的空间中泄漏出来,进入到相邻的空间或支撑柱中。菲尔普斯表示,这种泄露相当的普遍,并导致了IT环境中的压力损失,从而使得别处满是灰尘的热空气或潮湿的空气进入进来。避免这个问题的唯一方法便是去活动地板底下检查周边和支撑柱,并 住你发现的任何漏洞。

3、未密的活动地板开口:尽管许多的数据中心运营商已经努力密 了电缆开口及活动地板中的其他漏洞,但很少人真真正正地完成了这项工作。剩下的漏洞会导致大量的冷空气逸入不被需要的区域。配电单元或远程电源板等电气设备是寻找未密 开口的一个特别重要的地方。

4、机架密性不好:把备用面板放置在空的机架区域是气流管理的常识,然而并不是每个人都会这样做。一些机柜没有被设计好,安装钢轨与机柜边缘之间被 死。关心效率的经营者会密 那些开口以及机柜底端的潜在开口。

5、温度和湿度传感器刻度不准:有时供应商使用了未校准的传感器,有时刻度会随着时间的推移而变得不准确。这将导致管理不善的冷却单元不能协同地工作。Strong建议运营商每六个月校准一次温度和相对湿度传感器,并且在必要的时候进行相应的调整。

6、物以稀为贵:许多的数据中心运营商预置了过度的冷却能力。如果拥有的冷却能力大于所需,并无法保证过剩的CRACs的安全,那么整个的冷却方案都会被连累,因为太多的单元处于低效率状态。地板下的冷却温度很高,且某些机架很难被冷却时,运营商一贯的反应便是运行更多的冷却单元。然而与直觉相反,正确的做法应该是运行更少的CRACs来降低负荷,菲尔普斯说。

7、让CRAC互相牵制来控制湿度:使两个CRAC互相牵制的另一个好方法是给相邻的CRAC供以不同温度的循环空气。因此,CRAC得到不同的湿度读数,一个结束加湿,而另一个正在干燥空气。解决这个问题需要巧妙地理解湿度图,并准确的设置湿度控制点,菲尔普斯说。

8、闲置的机柜空间:这是另一个明显的因素,但出于某种原因没有被每个人所重视。当一个或者多个机柜空间被空置,将会破坏气流平衡,导致废气循环进入冷通道,或是在冷通道损失冷空气。这种情况将导致过度冷却,及供应多于实际所需的空气来弥补损失。

9、糟糕的机架布局:理想情况下,你想把机架按加热/制冷分别排成一行,并把主要的CRACs放置在每行的两端。拥有一小块机架且没有特定的方向并不能帮助任何人。无论是从前往后排列机架,还是使CRACs与IT行的方向相同,都无济于事。

10、冷却管理没有受到应有的重视:没有想到改进冷却管理方式的好处,使得运营商的容量搁浅并花费了更高的运营成本。做一些如安装备用面板等简单的工作就可以从中获益,但它们常常被忽视。在极端的情况下,一个管理良好的数据中心冷却系统甚至可以推迟扩张或建立新的设施。

作者:何妍 

来源:51CTO

时间: 2024-10-22 02:53:43

数据中心冷却最常见的10大问题的相关文章

数据中心冷却技术将何去何从?

数据中心是数字经济的关键,但也是能源的主要消耗者.据估计,全球数据中心消耗的电能占全球能源消耗量的2%,其每平方米消耗的电能是普通办公室的10倍,而这一能源过度消耗的主要原因是部署了冷却系统. 以数据和信息通信技术闻名的专业厂商AURECON公司总裁彼得•格里夫斯表示,"更令人关注的事实是,目前的预测表明,全球信息通信技术的要求仍然需要冷却技术,随着使用智能手机的人越来越多,以及高速网络的增长,这种扩张远远超过了能源效率的提高."他撰写的"冷却ICT关键环境将何去何从?&qu

IT管理人员需要更加了解数据中心冷却情况

对于任何数据中心冷却系统的工作,为了充分发挥其潜力,运营数据中心服务器的IT管理者和运行冷却系统管理人员必须对数据中心冷却设施有一定程度的的了解. "这是唯一的方法冷却工作."CNET培训服务公司的技术开发总监阿德里安·琼斯说.服务器所消耗的每千瓦小时产生的热量,必须被冷却系统消除,而在传统的企业数据中心IT设备和冷却设备的功能之间完全分离是简单地理性的,因为它们基本上都是管理单一系统."随着处理能力的增加,热量也会增加." 阿德里安·琼斯曾经为英国军队设计了二十年

数据中心网络流量增长的10个关键数字

如今,随着越来越多的人使用移动设备,为了给个人和企业提供资金更多的云服务,云流量的增长比数据中心流量增长速度更快. 根据最新更新的思科全球云指数表明,通过对全球网络流量的每年评估和趋势预测,虽然2014年到2019年数据中心网络流量将会增加两倍,但思科公司研究发现2014年到2019年全球云流量将会增加四倍. 据思科的报告,事实上,从现在开始的五年内,云流量将占数据中心的网络流量大部分. 以下是最新的云指数10个关键数字: •26个月:2019年的全球数据中心通信流量相当于地球上每人连续26个月

用制冷剂的自然冷却数据中心冷却技术获加州官方认可

据国外媒体报道,使用制冷剂进行自然冷却的数据中心冷却技术得到加州建筑监管机构批准,这项技术可节约大量的水,也变成美国国家建筑标准的一部分,来提高建筑物的能源效率.数据中心运营商在加州现在可以安装节能系统,使用专门的制冷剂液体作为介质与外部环境交换热量,而不是水.在这之前,加州建筑标准的一份文件(代码为24号文件)要求,需要在数据中心中使用节能制冷,要么抽取空气进入大楼(空气侧节能)或室外系统用水转移热量(水侧节能). 加州政府被说服 这是某国际网络能源公司游说加州能源委员会做出的改变,因为它有数

为超融合架构选择合适的数据中心冷却系统

虽然超融合基础架构会带来很多好处,比如精简的IT管理方法,但从数据中心散热的角度来看,它也同时带来了一些特殊的挑战. 当把超融合基础架构的机器安装到机柜上的时候,会在密集的冷却环境中制造出高热量密度.保持散热通道的畅通无阻非常重要,但是要保证正常的温度下给予机器足够的散热风,还要让热量尽量远离这些机器是比较困难的. 其实对于其他IT硬件来说这个原则是一样的,但是鉴于高度融合基础架构(HCI)的密集性以及安装的简易性,你会发现要在数据中心打造一个有效率的散热系统其实是很困难的.很多数据中心在建立之

法国一能源枢纽计划采用湖水为数据中心冷却

Savoie Technolac是位于法国东南部奥弗涅罗讷-阿尔卑斯大区的一个可持续发展的能源枢纽,目前正在构建一个新的数据中心.这个数据中心建成后,将可能采用附近的布尔歇湖终年寒冷的湖水冷却. 布尔歇湖 Savoie Technolac是一家由萨瓦省部门委员会投资60%的合资企业,剩余的40%是由尚贝里市和28个周边市政委员会投资:其中包括来自EDF的水力工程中心,法国国家太阳能研究所,以及能源咨询商Energy Pool公司等机构. 该数据中心总面积为3800平米,建筑面积为1700平米,并

绿色IT无法解决 数据中心冷却难题

很多人认为http://www.aliyun.com/zixun/aggregation/39398.html">节能减排只是工业行业的事情,似乎与IT这些高科技行业无关,其实不然,作为年耗电量占全国用电总量5%的海量PC和服务器,进行节能减排也是重要的事情.但微软公司首席环境战略师罗布·伯纳德表示"我们的能源正在接近耗尽的边缘,而我们还无法让数据中心保持足够的冷却". 当然能源使用并不是一个新话题.2006年,美国能源部预测数据中心能耗到2011年翻倍增长,将超过12

集装箱数据中心冷却系统 比拼升级

惠普集装箱数据中心 Datacenterhttp://www.aliyun.com/zixun/aggregation/4979.html">Dynamics首席技术官StephenWorn表示,惠普的"超级冷却系统"由2个20英尺柜背靠背组成,每个集装箱顶部分别有3个直膨式(direct-expansion,Dx)散热冷却口,而且还它拥有超乎常规尺寸的进气口.通过Dx冗余/自适应可以实现超大尺寸的自由进出气口冷却,可以满足超高HPC负荷管理的需要,但至于采用什么样的冷

数据中心那些常见的问题

虽然数据中心运营商的冷却管理比十年前要好得多,但许多设施仍然面临着容量不能充分被利用及浪费能源等问题.专家表示,气流管理的最终目标是更好地控制IT进气口的冷却温度设定值,同时使得传送至数据大厅的空气量最小化. 数据中心那些常见的问题 以下是数据中心中最常见的一些问题,如下: 1.太多的开孔地板:在热通道和空白区域放置开孔地板是毫无理由的.这样会浪费冷却能力.还有可能是在机架的进气口放置了太多的开孔地板.IT机架顶部的温度低于正常温度便是一大危险信号. 2.隐藏的泄漏:冷空气从活动地板下的空间中泄