机柜学问:数据中心散热与环境建设

机房散热的效果,与机柜选择以及机柜的摆放密切相关。有关机柜很容易被忽略。目前液冷(或称水冷)机柜是讨论最多的话题,更准确的描述是采用液冷门的机柜。

高密度服务器部署是数据中心建设发展的必然,由此而引发的散热问题,理应引起高度的重视。小小一个机柜,蕴含着巨大的玄机。

新一代数据中心是当今的热点,无论是资源整合、虚拟化;还是绿色节能、自动化以及安全管理,都是业界津津乐道的话题。

随着新一代数据中心的建设,网络、服务器、存储等基础设备进一步集中,这就对数据中心的基础环境提出了新的要求。以刀片服务器应用为例,其具有高计算密集度、易部署、好管理、绿色节能等特性,是数据中心建设的上佳选择。但是对于现有的数据中心而言,电力不足、制冷达不到要求,这都困扰着刀片服务器的推广和应用。

应对电力不足

以前我们曾经介绍过,现有数据中心的机架或者机柜,其电力配置为10A(安培),满负荷可部署15~16台1U机架式服务器。对于差一些的数据中心,其电力配备就只有6.8A,对于刀片服务器而言。一个满配的刀片服务器,其所需要的电力大约为10A。

按照数据中心现有的能力计算,10A电力配备显然无法满足更多台刀片服务器部署的需求,电力不足的矛盾非常突出。如何解决供电不足的难题,最容易想到的是从扩容入手。实际上,在数据中心或者是楼宇构建之初,对于电力容量就有一定的测算。如今,增加电力容量,这就需要电力部门进行扩容,并涉及到相应的线路、开关等设备的改造,其所牵涉的因素很多,受制约的因素也很多。

对于现有用电情况进行合理调整,是应对电力不足的另外一个解决办法。据惠普全球IT科技服务部总经理潘家驰介绍,通过采用一套称之为“适应性数据高可用管理(AdaptiveDataAvailabilityManagement,ADAM)”的方案工具,他们对现有一些企业的数据中心进行监控,结果发现,10%左右的电力能耗用于灯光照明等,而用于IT设备的电力消耗大约只有30%,其余大量的电力消耗在制冷,也就是说,运营管理的成本已经大大超过了设备的实际使用成本。通过合理的布局,以及科学的热力模型设计,将可以大大降低运营维护设备的电力消耗,有效缓解电力不足的矛盾。从机柜入手

空调制冷成本的居高不下,与机架/机柜以及散热模型的设计有关。据了解,很多机房的空调温度很低,夏日里,人在机房中都需要穿很厚的衣服。其原因,机房是按照最高散热需求的设备设定空调温度的,这种粗放的管理,必然导致能效的降低。

机房散热的效果,与机柜选择以及机柜的摆放密切相关。有关机柜很容易被忽略。在一次采访中,某电力机房的管理员表示,企业的IT预算有限,很难说服企业领导,支付超过一万元来购买机柜,在有些领导眼里,机房机柜与家庭生活中的家具也没有多大区别,能省就省。为了追求美观气派,很多机柜都采用玻璃门,导致机器设备的散热效果不佳,故障频繁发生。

目前液冷(或称水冷)机柜是讨论最多的话题,更准确的描述是采用液冷门的机柜。这种液冷门可以提供更好散热能力。据泛达公司产品技术经理王剑春介绍,普通的风冷设备大概可以支持5kw(千瓦)的散热需求,采用液冷门则可以提高到25kw~35kw。此外,与风冷方式相比,液冷的热交换方式更加容易控制,减少了热气流的干扰,效率更高。

王剑春表示,以泛达公司的NetAccess机柜为例,其水冷门系统采用单独的循环系统,采用冷水(ChillWater)作为制冷剂,一台分布式压缩主机CDU(CoolingDistributionUnit)一般能够提供120KW到150KW的制冷量(个别产品最大能够提供300KW),即一台CDU能够控制最多六个水冷门机柜,CDU和每台机柜之间各有两根水管连接。CDU施工并不复杂,只是要注意在弯曲处安装防漏装置,要求与强电电源线保持一定距离。采用这种水冷门系统,为局部高密度的服务器散热问题提供了一个非常有效的解决方案。

对于液冷门系统

对于液冷门系统,强生公司中国区企业计算经理蒙伟表示,他们不会采用类似的系统。最近,强生公司刚刚完成了一个大的数据中心项目的建设,通过构建2~3个数据中心,为强生在亚太地区14个国家和地区的生产厂、销售分支机构提供全方位的IT服务,其中包括ERP服务在内。通过这种集中化的数据中心整合,强生改变了以往IT分散部署的方式,企业管理水平得到了进一步提升。据蒙伟介绍,在数据中心构建的过程中,他们用到了安腾服务器,也用到了刀片服务器。其中刀片服务器在应用整合、绿色节能等方面的确具有优异的表现。有关散热的问题,从应用结果看,刀片服务器自身的散热能力已经可以满足需要。对于采用液冷门散热的方式,他们非常担心水的泄漏。

中金数据系统有限公司市场经理张松与蒙伟持有相同的观点。目前中金数据在北京、上海、华南、烟台四个核心节点构建了大规模的数据中心,并在西部构建了远程备份中心。依托这些数据中心,中金数据为金融等国内大型企业提供第三方外包数据中心服务,在国内金融行业具有广泛知名度。张松表示,其数据中心机房构建是完全无水环境的,即便所用的水冷式空调系统,其水循环的部分全部隔离在机房之外,机房环境一滴水都没有。这样做的目的就是要保证机房环境的绝对安全。

专业机房服务提供商对于水冷门系统也是持有一种观望的态度。北京创赢科技公司薄英雪表示,他们在向用户推荐方案的时候,不会推荐水冷门系统,其一对于大多数北方的用户而言,没有必要采用水冷系统;其二很多用户出于安全的考虑,对于水冷门的认可度还有一个逐步接纳的过程。从创赢科技的角度看,他们会跟踪水冷门系统技术,对于其发展进行跟踪。薄英雪表示,新技术在推广的初期,其售价总是不菲的,因此,目前选择风冷系统还是具有最佳性价比的。

针对液体泄漏所导致的安全隐患,王剑春表示,这种顾虑源于用户对于水冷门系统缺乏必要的了解。以水为例,它经过了一种特殊的处理,是绝缘的,不导电。此外,可以通过各种监视系统随时对系统进行监控管理,可以做到预防和报警。王剑春表示,目前机房大多数采用空调系统漫散推送冷气的方式,为了使局部高热区域降温,其温度往往需要调得很低,导致数据中心平均PUE(PowerUsageEffectiveness,能源利用效率)在2.5以上,国外则在1.7左右,与之相比,国内数据中心环境设施能源消耗已经大大超过IT设备本身。有数据表明,通过使用冷水(ChillWater)循环冷却系统,至少可以提高20%的能源使用效率。

风冷的对策

为了控制局部高热区域的散热,除了液冷门系统的方式外,通过增加空调,对于局部区域加压冷空气也是一种常用的方式。传统专业机柜市场厂家,如科士达、图腾、威龙等都具有相应的产品和解决方案。在采访中,科士达产品经理刘尉敏表示,液冷门系统方式是一种高端的应用需求,适合应用在刀片服务器满配的环境条件下,这种情况常常出现在电信运营商等数据中心机房,但是对于大多数的用户而言,并没有这样的应用需求。在此,刘尉敏也提到了成本问题,由于规模的限制,目前液冷门系统的售价还是比较高。与风冷系统方案相比,其售价至少相差一个数量级,对用户来说,这还是一个比较大的投入。

通过局部增加空调,以及合理的机柜摆放,例如机柜门对门、背对背,令冷热风道交替的方式,也可以达到良好的散热效果。对此,王剑春指出,局部增加空调也存在一定的局限,首先空调系统需要占用必要的物理空间,它需要额外增加一排空调,对于局部高热区域进行面对面的致冷。此外,采用这种方式大约可以增加15kw的致冷能力。超过了这个范围,风冷将无能为力。

作者:尕刺

来源:51CTO

时间: 2024-09-08 05:40:45

机柜学问:数据中心散热与环境建设的相关文章

布线须知:机柜在数据中心机房的三个新用途

在传统的概念中,从业人士对数据中心机房中机柜的传统定义是:机柜就是数据中心机房的网络设备.服务器等设备的一个载体而已.那么,随着数据中心一路发展走来,机柜在数据中心机房的用途有没有在发生着变化呢?有的.一些专注于机房产品的厂家,针对数据中心机房的发展现状,赋予了机柜更多的功能.   1.提高机房的整体美观度 多种外观 在基于19英寸设备安装宽度的标准下,多个生产厂家对机柜外观进行了创新,并考虑到机柜在单台放置和多台放置的环境下的外观效果,就拿鼎龙公司来讲,他们从外观上,增加了铝型材机柜,并在原有

数据中心散热,阿里居然玩出了这些花样

4月26日,阿里云在云栖大会·南京峰会上展示了黑科技--全浸没"凉得快"服务器麒麟,这是一种数据中心散热解决方案. 阿里云的"麒麟"采用了浸没式液冷散热的服务器部署方案,利用绝缘冷却液取代传统风冷. 由于无需风扇.空调等制冷设备,可在任何地方部署,因此也极大地降低了冷却能耗和空间消耗.这种浸没液冷服务器集群技术,可将数据中心能源使用效率(PUE)大幅降低到接近于理论极限值1.0(能源使用效率),达到世界领先水平. 阿里云为什么要推麒麟液冷? 随着"大数据时

风冷VS液冷:数据中心散热谁更“彪悍”?

[天极网服务器频道S档案室]数据中心散热是否理想是衡量数据中心能效高低的重要指标,当前关于数据中心的散热方式主要有风冷和液冷两种,那么风冷和液冷究竟谁更适合在绿色数据中心部署,它们有什么差异点,我们一同探讨这个问题. &http://www.aliyun.com/zixun/aggregation/37954.html">nbsp; 如不能收看,请点击此处下载视频 (作者:许京杨 柏景福责任编辑:许京杨)

数据中心散热新趋势:将服务器浸没油中

对于硬件发烧友来说,他们经常采用一些极端的冷却方案,包括循环水冷,以及将硬件全部浸泡在油中,更有甚者采用Peltier冷却(半导体制冷片)的方式. 一些追求超频世界纪录的DIY玩家也会采用干冰或液氮也保证他们在极限超频时无需担心硬件因为温度过高而停止工作.实际上某些时候处理器在温度过低时也会停止工作,例如当年的Core 2 http://www.aliyun.com/zixun/aggregation/38398.html">Extreme QX9650在-60度到-90度时将会自动断电.

绿色数据中心 靠奇葩的散热降低能耗并不一定适用

在节能减排的大背景下,如何打造绿色节能的数据中心,降低能耗,控制成本,工程师们为此操碎了心.的确,在数据量爆增的当下,数据中心的节能减排问题已经引起了各大企业的足够重视,为了降低数据中心的能源消耗,工程师们使出了浑身解数,例如把数据中心建在冰川或者海底下,把服务器放到矿物油中散热,利用热水散热等等.首先,我们来盘点一下数据中心各种"奇葩"散热方式. 1)将数据中心建在南北极 将数据中心建在南北极,利用自然环境进行散热,从2011年开始,Facebook就宣布了在瑞典北部的卢雷亚(Lul

数据中心的“奇葩”散热方式

为解决数据中心的散热问题,工程师们操碎了心. 早前,Facebook.Google都将自家的数据中心建在寒冷的北欧国家.而前不久,有传言说微软计划在海底建数据中心,通过"极度深寒"来为服务器等设备降温. 城会玩! 我们知道,数据中心有一个非常通用的考核指标--PUE(Power Usage Effectiveness),它是数据中心消耗的所有能源与IT负载使用的能源之比,其基准值为2,越接近1表明能效水平越好,绿色化程度越高. 统计数据表明,数据中心冷却功耗占到整体功耗的45%-50%

数据中心布线的三大关注点

数据中心(DC)的建设者更多地会把目光放在服务器.存储等IT设备上,即使是对关注基础设施的建设者来说,供配电.制冷也会成为他们关注的主角,综合布线往往成为配角,甚至沦为"群众演员",其结果是数据中心的"整场戏"都缺少了生命力. 大背景下的高投资回报 市场咨询公司Canalys 数据表明,2011年第三季度,全球数据中心基础设施规模达到了262亿美元,比上一季度增长了2.7%.市场分析公司Gartner数据显示,2011年全球数据中心硬件支出达到990亿美元,同比增长

数据中心布线的三个要点

数据中心的建设者更多地会把目光放在服务器.存储等IT设备上,即使是对关注基础设施的建设者来说,供配电.制冷也会成为他们关注的主角,综合布线往往成为配角,甚至沦为"群众演员",其结果是数据中心的"整场戏"都缺少了生命力. 大背景下的高投资回报 市场咨询公司Canalys 数据表明,2011年第三季度,全球数据中心基础设施规模达到了262亿美元,比上一季度增长了2.7%.市场分析公司Gartner数据显示,2011年全球数据中心硬件支出达到990亿美元,同比增长12.7

为您的数据中心环境选择最合适的机架配电装置的最佳方案

随着数据信息日益成为许多企业组织背后最为强大的驱动力,数据中心现在业已成为了企业业务成功运营的基础.在这种环境下,峰值期间的工作效率和可靠性无疑是数据中心的必需品;如果数据中心瘫痪,企业业务必将受到影响.因此,这些需求正在改变企业设计和运营数据中心的方式. 数据中心越来越需要对内部所运行的每一台耗电设备实施监控,并且是以高精度和细粒度进行监控.对于企业和多租户的数据中心一样,保持其数据中心的正常运行需要借助先进的机架配电单元(PDU),以便能够精确的监视电源的每个方面,并实现良好的配电管理.如果