高密度数据中心的连续制冷破解方案

以下的文章主要介绍的是高密度数据中心的连续制冷解决方案,随着数据中心单位用电量不断加大,以及机房的发热量不断升高,在这种情况下,一旦电源发生故障,虽然服务器依靠ups系统能够继续运行。但由于制冷设备停止运行,致使机房温度快速上升,仍会导致服务器过热而停止运行。随着数据中心单位用电量不断增加,机房的发热量越来越高,在这种情况下,一旦电源发生故障,虽然服务器依靠ups系统能够继续运行,但由于制冷设备停止运行,致使机房温度快速上升,仍会导致服务器过热而停止运行。因此,目前高密度机房的趋势需要设计不间断工作的制冷系统,以保证在电源故障时,制冷系统或部分制冷系统能继续运转,在一段时间内维持机房的环境温度,以免过快地升温,从而保护服务器设备的安全运行,等候电力
系统恢复或者备用发电系统投入使用。本文从相关标准和实践出发,对高密度机房的制冷系统的设计进行探讨。制冷系统停止时的机房温度当制冷系统停止时,根据数据中心机房装机密度的不同,机房的温度上升幅度不一。在以往传统的机房,由于单机柜用电量较小,制冷系统停止后,仍有较长一段时间能维持设备正常运行。
例如在一个单机柜1.2KW的机房,制冷系统停止10分钟后,温度将上升1
0.5℃,管理者可以有时间启用备用发电机或关闭服务器设备。但随着机房装机密度的提高,温度上升变得非常迅速,据Intel实验分析,一个单机柜用电量约9KW的数据中心机房,一旦制冷系统停止运行,温度从22℃上升40℃只需要18秒,上升到57℃只需要35秒。而一旦超过32℃,计算机设备就会出现故障,温度继续升高,计算机设备将会停止运行,甚至损坏。因此,对于高密度的机房,配置一个不问断的制冷系统就变得非常必要。对高密度机房连续制冷的定义面对上述情况,国外数据中心领域的一些机构进行了研究,在UPTIME协会研讨高密度机房连续制冷系统的白皮书中,将制冷系统分为ABC三个等级,A级为不间断制冷系统,不间断制冷系统需要为精密空调的
风机、二次泵配置UPS,并增加蓄冷罐;B级为连续制冷系统:连续制冷系统需要为精密空调的风机、二次泵配置UPS,但不增加蓄冷罐;C级为可中断的制冷系统,即对制冷系统不配置任何UPS设备,在电源故障时停止制冷系统。UPTIME对制冷系统进行分级定义,并提供了几种解决方案。高密度机房连续制冷的几种解决方案对于高密度机房,采取何种措施在电力故障发生的间歇,维持制冷系统的运行,或是部分运行呢?UPTIME组织和有关厂商
提出了几种解决方案。第一种,为整个制冷系统全部配置UPS系统,对于冷冻水型精密空调,需要为冷水机组,冷却塔、一二次泵和精密空调都配上UPS系统。这种方式能保持整套制冷系统的运行,但对于大功率的冷水机组和冷却塔,全部配上UPS系统的代价是非常高昂的,因此目前很少被采用。第二种,在一个使用冷冻水型精密空调的系统中,为精密空调的风机、冷冻水的二次泵配置UPS,并在冷冻水循环系统中增加蓄冷罐以储备冷冻水。当电源中断未恢复,或因电源中断导致冷水机组暂时无法启动时,通过蓄冷罐和水泵提供冷源,由精密空调的风机维持机房内的空气循环,从而在一段时问内保持机房的温度或阻止机房快速升温,等候电力的恢复或冷水机组恢复正常工作。第一和第二种方式都达到了A级不间断制冷的标准。第三种,在使用冷冻水型精密空调的系统中,为精密空调的风机和冷冻水二次泵配置UPS,但不在冷冻水循环系统中配置蓄冷罐。当电源中断未恢复,或因电源中断导致冷水机组暂时无法启动时,精密空调的风机仍能维持机房内的空气循环,并利用管道中的剩余冷冻水为机房降温。采用这种方式,也能减缓机房快速升温,但效果没有前两种方式显著。第四种,对于采用直接蒸发式精密空调的系统,既无法安装蓄冷系统,也没有管道的余冷可以利用。但依然可以为精密空调的风机配置UPS,目的只是为在出现故障时保持数据中心的空气循环,也能减缓机房的升温。第三和第四种方式达到了B级连续制冷的标准。高密度机房连续制冷解决方案的选择
那么,对于以上的几种连续制冷解决方案,建设方或设计单位
该如何进行选择呢?对此,笔者建议建设方和设计单位可根据数据中心的热密度和数据中心的重要性,以及柴油机等后备系统配置情况,从以上解决方案中选择一个
合适的连续制冷方案。例如对应单机柜电量1.2KW以内的机房,
预计温度上升到32℃的时间约在10分钟以上,就可以依靠柴油机系统来提供后备电源。随着单机柜用电量的提高,可以采用为精密空调的风扇提供UPS的方案,以提供气流循环,利用环境的吸热能力,减缓温升速率。但对于单机柜的用电量达到6kW以上的高密度的机房(按ASHRAE的预测,2010年服务器单机柜将在12KW以上),就需采用冷冻水型精密空调系统,从而选择UPTlME的A级不间断制冷方案,给冷冻水循环系统提供UPS,并设置一定体积的蓄冷罐,以维持停电期间或停电后冷水机组重新启动期间的制冷,等待制冷系统的完全恢复。总之,面对高密度机房的发展趋势,配置连续制冷设施,以在停电和冷水机组重启期间维持设备运行,保护设备安全,己是建设方和设计单位必须考虑的重要问题·目前各方都在积极探索和实施。同时随着高密度机房的不断规划建设,预计也将出现更多的解决方案,以满足高密度机房连续制冷的需求。【编辑推荐】 探访世界上最安全的数据中心 数据中心架构不同层次安全策略 云安全3.0——给
云计算数据中心用上特种兵装备! 云安全:数据中心安全防护新策略 2010研究报告:中型企业正崛起为数据中心改革的先锋【责任编辑:孙巧华 TEL:(010)68476606】 原文:高密度数据中心的连续制冷破解方案 返回网络安全首页

时间: 2024-10-22 04:03:17

高密度数据中心的连续制冷破解方案的相关文章

高密度数据中心内的配电即系统

曾几何时,为了能够积极主动地管理不断上涨的电力成本,使得数据中心内的配电系统俨然成为了数据中心运营商们的一大主要的关注领域.更具体地说,其是为了帮助操作运营人员们实时的识别运行过程中的电力消耗的潜在问题,并杜绝浪费.而随着越来越多的具备未来思维的企业组织开始广泛的分享他们在设施和IT管理过程中所总结的知识和经验,使得这种基于机架的电力基础设施中推动了更加的智能化已然变成了更高的机架功率密度的当务之急.事实上,在企业数据中心内的分配链中的所有阶段实施积极主动DE 电源管理已经成为效率研究和数据中心

图解高密度数据中心布线新技术

在今天以数据应用为中心的企业中,人们需要在更少的占 地面积上进行更多的数据处理.存储和连接.存储设备更为紧凑,服务器多采用刀片式,一个机箱里包括多个服务器,相应地,设备之间的连接也实现了高密度.数据中心每平方米的使用成本与最初的房产的成本相当.针对日后的新需求和强制的冗余考虑,公司需要面临更大的开支.高密度的数据中 心中,传统的主干和水平链路配置(如常见的每个EDA机柜接入24根双绞线或24芯光纤)已经不能适应刀片式服务器及SAN存储设备的需求,而由端口数量增加引起的机柜安装单元的占用又与昂贵的

Facebook高密度数据中心揭秘:ARM替代Xeon

核心提示:目前国内一些小规模的传统数据中心,PUE值可能高达3左右,这意味着IT设备每消耗1瓦特电力,数据中心基础设施便需要消耗2瓦特电力.鹏博士数据中心特有的节能冷却系统将使PUE达到1.5以下. 中国IDC圈7月15日报道:目前国内一些小规模的传统数据中心,PUE值可能高达3左右,这意味着IT设备每消耗1瓦特电力,数据中心基础设施便需要消耗2瓦特电力.鹏博士数据中心特有的节能冷却系统将使PUE达到1.5以下. 1.选择适合数据中心的空调系统 由于数据中心的发热量很大且要求基本恒温恒湿永远连续

模块化配电系统在高密度数据中心的应用

传统的数据中心配电架构 在传统的配电系统当中,数据中心的主进线先至配电柜(配电柜一般额定功率为50~500kW),配电柜一般配有大型电力变压器用以转换电压或改善电力质量.然后,配电柜将主进线分配成一定数量的分支电路(一般额定功率为1.5~15kW)为IT设备配电.每台IT机柜使用一条或多条分支电路.IT机柜的布线通常要求使用硬管或软管,一般部署在高架地板之下. 在传统的配电系统推出之时数据中心内仅有数量非常少的大型IT设备.那时,除了对IT设备进行重要升级时执行计划宕机外,很少会对此进行变更.

光纤跳线在高密度数据中心的应用

光纤跳线在数据中心的应用非常广泛,而且近些年来数据中心光纤传输系统对带宽的需求显示出高增长的趋势,从而使用新一代的光纤和光模块可以继续探索光纤网络带宽增长的潜力.由于多模光纤跳线在成本方面具有很大的优势,促使其在数据中心的应用中占绝对优势. 在云计算环境下网络媒体的应用和推广的不断驱动下,多模光纤跳线也在不断发展,从OM1到OM2,以及从OM3到OM4开始使用的VCSEL激光器优化技术,带宽需求在不断增长.新类别OM4多模跳线光纤标准EIA/TIA492AAAD的推出,为多模光纤在未来的广泛应用

英特尔妙招多多 高密度数据中心节能

石油勘探模拟需要超大规模的高性能计算集群,同时也需要消耗大量的电能.近年来,随着石油勘探.油藏模拟的广度.深度和精度要求的日益提高,石油企业数据中心里的服务器规模也在不断膨胀.6月27日,英特尔在内蒙http://www.aliyun.com/zixun/aggregation/30943.html">呼和浩特举办了主题为"绿色计算 从'芯'开始"的中国石油行业与英特尔2008年度高性能计算研讨会.会上,中石油的代表就提供了这样一个信息,2006年该公司数据中心的电费总

思科携手EMC共建新型高能效数据中心

思科宣布进军服务器领域后人们终于看到了其具体的动作,近日有消息传来,思科将联合麻省理工学院.马萨诸塞州立大学以及EMC公司在霍利奥克市(Holyoke)建造一座新型高能效数据中心,该数据中心将由以上四方出资和管理,而霍利奥克市以丰富廉价的水电资源著称. 金融危机背景下,作为企业IT核心组成部分的数据中心面临更大压力,一方面企业不断压缩IT各项开支和成本,另一方面业务变化正在全面提速,这就对数据中心提出了更高的要求. 在金融危机之前,很多企业的业务快速扩张,IT系统急速膨胀,增加了服务器和存储设备

高环境温度数据中心成为未来发展趋势

12月中旬,国际研究小组在英国的一份专业杂志上发布了有关碳排放的最新研究结果:尽管因为受到经济活动减缓的影响,2008年到2009年的二氧化碳排放量比往年有所降低,但到了2010年后又开始了大幅度回升,已达到5.9%的历史最高涨幅.据了解,2010年大气中的二氧化碳含量已经到达了80万年来的最高值--而这之中,数据中心的碳排放量所占的比例已经不容忽视.调查结果显示,数据中心能耗已经占到了全球一年能耗的2%.而由于云计算的迅速热门,全球各地的数据中心也开始如火如荼地建设起来,那么关于如何降低数据中

大功率密度数据中心的冷却系统

自2002年以来,数据中心业界的人们一直在谈论高功率密度数据中心将取代低功率密度数据中心.理论上,较高的密度将提高效率,同时减少能源消耗的费用,但是,数据中心在实现这些好处的同时,也将面临冷却故障的风险.今天,每台机柜消耗超过10 kW的数据中心都被认为是高功率密度.密度也可以通过每平方英尺所消耗的能量来测量,这就是为什么许多高功率密度数据中心都是新建的,而不是增建的原因所在了.随着机架密度的不断增长,数据中心制造商和设计人员不得不提出更高效的冷却解决方案来抵消能源的消耗. 传统的数据中心设计无