数据中心的体温计——空调系统

标准的数据中心机房,要求提供恒温恒湿的内部运行环境。当然,实际上做到恒温恒湿有些困难,毕竟不同设备不同时刻散热量都在变化,局部温差一直都存在,一般标准要求机房内部温度控制在18~25摄氏度之间,湿度保持在40%~60%为宜。

要实现数据中心机房内部的温湿度标准,必然离不开空调系统。自从有了数据中心,就要有空调系统。通过空调来调节数据中心内部的温湿度内循环,给各种设备提供良好的运行工作环境,提升设备的运转效率,并可延长设备的使用寿命。现在,出现了一些依靠自然通风的数据中心,去掉空调系统,以便减少在制冷上的能耗,不过这类数据中心需要建在特定的地区,依靠大自然实现通风降温的目的,真正投入使用的寥寥无几,绝大多数数据中心还是通过封闭的环境,部署空调系统来实现内部的恒温恒湿。然而,任何系统都有其不可靠的一面,空调这种大型设备也有故障情况的发生,一旦空调系统停转,给数据中心带来的影响是极大的。

现在的数据中心内部设计的都是封闭性很好的机房,尽量减少内外部的热交换,让大部分热量都通过通风通道被带出,减少能耗。这样做带来的风险是,一旦空调停转,内部设备排除的大量热量无法及时排出,内部温度会迅速升高。即便很多设备有强大的风扇也无济于事,因为这些设备上的风扇都是吹风,不是降温的,产生的热量无法及时排放出去,在内部累积。而这里很多设备都是精密设备,对温度都很敏感。比如服务器,工作温度不能超过50度,交换机工作温度不能超过70度,一个封闭的数据中心环境从二十多度爬升到50度也就几十分钟的事儿,所以空调系统停转对数据中心来说危害极大,若时间稍长,很多设备就会因为温度过高而烧坏,有些设备可能自身有过温的防护,当温度过高时停止工作,这样也会造成大面积的业务受到影响。空调系统也是有好有差,有的空调只能傻瓜式地降温,导致温湿度变化很大,内部出现很多局部热点,这样有的设备长期工作在良好的温湿度环境中,而有的设备周围则忽冷忽热,变化温差很大,这样温湿度频繁变化对设备内部的元器件损伤更大,要比简单的升温或降温还要大。还有就是产生的局部热点,甚至在一台设备的内部也会有局部温湿度的差异,这对设备的使用寿命是有影响的,冷热不均的受热可以加速设备内的器件老化。对于电子设备,设计人员经常要做高低温实验,就是考验设备的抗温性,要满足数据中心的使用标准要求。

数据中心的空调系统有别于常规舒适性空调系统,该类设施空调系统的负荷特点是显热负荷密度大、显热比高,数据中心里设备的耗电量会百分之百转化为显热负荷。数据中心空调负荷强度高,即使在冬季仍然需要空调供冷。一旦空调系统出现故障,内部设备散热量无法及时消除,机房温度很快超过设备对工作温度的要求,可能会导致设备的损坏,造成巨大损失。因此,数据中心要避免空调系统出现单点故障,保证系统24小时全天不间断供冷,并且能在线维护,确保系统不间断供冷的情况下可以维修或更换部分设备或者配件。空调是数据中心内部一个较为复杂的系统,包括风冷和水冷两种制冷技术,选择哪种因地而异。如果采用水冷冷水机组的话,还需要在设计过程中单独增加一套冷却水的循环系统,包括冷却水泵,冷却塔和电子水处理仪等设备,每个制冷空调系统附近都有冷却水补水池,至少由两路市政给水,当市政给水出现故障时,水池容积最少满足系统满负荷连续运转24小时,两路冷水经不同路由送至数据中心内各楼层及各空调机房,满足容错系统的物理分割要求。冷水管路和机房精密空调均为2N配置:“两路市电电源、备用电源、2套低压配电系统、2N冗余的机房专用空调系统、机柜系统”。任何一路冷水或任何一台精密空调故障,均不影响关键负荷100%运行,保证在线维护的需要。当空调设备突发故障时,能及时关断故障设备两侧的阀门,检修或更换故障设备,同时还能保证除关断阀门管路之外的空调系统,内部设备都正常运转。在冷源上,可以采用备份甚至双冷源系统,空气源热泵系统供新风机组及辅助区域空调,部署蓄冷罐作为应急备用冷源,保证系统断电时不间断供冷。在管路上,冷源侧及末端均采用复线或环路设计,以提高水系统的可靠性与安全性,保证系统不间断运行,实现不间断的数据信息服务,要设计出有高可用性、高可靠性、高安全性及高可扩展性的空调系统。

当然,做好空调系统的冗余没错,这可大大提升数据中心运行的稳定性。不过,这也增加了数据中心运行成本,要知道空调系统可是一个电老虎,占去了数据中心的三分之一能耗,所以也不能一味地考虑空调系统的冗余,要因地制宜地、合理地部署空调系统。最关键的是要做好空调运行的监控工作,一旦发现停机,立即启动备用系统,或者在最短时间内修复正常。

本文作者:佚名

来源:51CTO

时间: 2024-09-20 11:49:31

数据中心的体温计——空调系统的相关文章

图解大型互联网数据中心典型模型

数据中心本质上是数学和逻辑的组合,分析模块化数据中心的颗粒度可以归纳演绎出其典型模型,本文介绍一些大型互联网数据中心的典型案例,正是为了做此方面的分析. 大型互联网公司数据中心建筑布局 图一 谷歌数据中心俯视图 图一是谷歌数据中心的典型布局,从空中俯视看到的庞大体量和氤氲升腾的水汽,让人立马联想到现代化的超级信息处理工厂,或在海上全力巡航的超级信息航母.谷歌的数据中心建筑结构极其精简,主体机房为宽而矮的单层仓储式厂房建筑结构,船体的中后两舱为两个长宽形主体机房模块,船头为机房配套的功能区域(如安

Facebook高密度数据中心揭秘:ARM替代Xeon

核心提示:目前国内一些小规模的传统数据中心,PUE值可能高达3左右,这意味着IT设备每消耗1瓦特电力,数据中心基础设施便需要消耗2瓦特电力.鹏博士数据中心特有的节能冷却系统将使PUE达到1.5以下. 中国IDC圈7月15日报道:目前国内一些小规模的传统数据中心,PUE值可能高达3左右,这意味着IT设备每消耗1瓦特电力,数据中心基础设施便需要消耗2瓦特电力.鹏博士数据中心特有的节能冷却系统将使PUE达到1.5以下. 1.选择适合数据中心的空调系统 由于数据中心的发热量很大且要求基本恒温恒湿永远连续

英维克参编《数据中心空调系统节能技术白皮书》正式发布

7月29日,为了推动数据中心设计发展,交流数据中心设计经验,第五届中国数据中心设计高峰论坛在北京召开,数据中心制冷.供配电.备用电源三大技术领域的专家汇集一堂. 峰会上,数据中心制冷领域的智慧结晶<数据中心空调系统节能技术白皮书>正式对外发布. 该本白皮书由中国电子工程设计院副总工程师.中国数据中心工作组组长钟景华主负责,英维克副总经理.中国数据中心工作组技术专家委员会委员王铁旺以及陈川参编. <数据中心空调系统节能技术白皮书>编写历经四年,正是数据中心市场快速发展的几年,用户对数

数据中心空调系统的五大节能方案

曾经有人做过对北京数据中心机房PUE的统计,结果如下:80%以上的机房PUE>2.0,24%以上为PUE>3.0的高能耗机房.虽然规范要求新建IDC的PUE要低于1.5,但实际上能做到的非常少,而很多国外数据中心的PUE普遍在PUE1.5以下,许多国内外节能领先的IDC案例表明IDC的节能的必要性. IDC空调系统的节能途径可以分为三个节能层级: 首先是部件级节能,通过采用更加节能的压缩机.风机水泵.冷却塔等零部件.但是采用部件级的节能,对整个数据中心的空调系统来说,效果和效益非常有限,对数据

数据中心布线的三大关注点

数据中心(DC)的建设者更多地会把目光放在服务器.存储等IT设备上,即使是对关注基础设施的建设者来说,供配电.制冷也会成为他们关注的主角,综合布线往往成为配角,甚至沦为"群众演员",其结果是数据中心的"整场戏"都缺少了生命力. 大背景下的高投资回报 市场咨询公司Canalys 数据表明,2011年第三季度,全球数据中心基础设施规模达到了262亿美元,比上一季度增长了2.7%.市场分析公司Gartner数据显示,2011年全球数据中心硬件支出达到990亿美元,同比增长

数据中心布线的三个要点

数据中心的建设者更多地会把目光放在服务器.存储等IT设备上,即使是对关注基础设施的建设者来说,供配电.制冷也会成为他们关注的主角,综合布线往往成为配角,甚至沦为"群众演员",其结果是数据中心的"整场戏"都缺少了生命力. 大背景下的高投资回报 市场咨询公司Canalys 数据表明,2011年第三季度,全球数据中心基础设施规模达到了262亿美元,比上一季度增长了2.7%.市场分析公司Gartner数据显示,2011年全球数据中心硬件支出达到990亿美元,同比增长12.7

感叹淘宝断网与数据中心的电源建设

中介交易 SEO诊断 淘宝客 云主机 技术大厅 大学毕业一转眼已经一年半了,有的时候还是会回想起欢乐的大学时光,毕业后进入了一家IT公司,从而开始关注和互联网相关的行业.还记得七.八年前,电子商务这个专业非常的热门,身边的很多学长学姐都纷纷报考各个大学的电子商务专业. 电子商务(Electronic Commerce,简称E-commerce)是在因特网开放的网络环境下,基于浏览器/服务器应用方式,实现消费者的网上购物.商户之间的网上交易和在线电子支付的一种新型的商业运营模式.电子商务涵盖的范围

如何建设IDC数据中心机房?看完你就明白了!

Internet Data Center互联网数据中心,简称IDC数据中心,它是传统的数据中心与Internet的结合,它除了具有传统的数据中心所具有的特点外,如数据集中.主机运行可靠等,还应具有访问方式的变化.要做到7x24服务.反应速度快等. IDC是一个提供资源外包服务的基地,它应具有非常好的机房环境.安全保证.网络带宽.主机的数量和主机的性能.大的存储数据空间.软件环境以及优秀的服务性能.设计集建筑.结构.电气.暖通空调.给排水.消防.网络.智能化等多个专业技术于一体,应具有"良好的安全

数据中心运维管理经验39条

1.空调与机房错层设计,可以有效防止漏水. 2.机房蓄电池的使用环境温度非常重要,25度是最佳值. 3.要注意电池的生产批次,讲究其一致性,不同批次的产品性能会有略微差异.所以在采购蓄电池时,可以每组同批次的多买2节电池,放入系统中作为电池组的热备份,当今后某节电池出现问题时,可以及时顶上. 4.要建CMDB,如果没有建立CMDB库,那么一定要建立一本简单的台帐,EXECL表就可以. 5.数据中心没有突发事件,所有事件的发生都应做到预案化.所以要不断的去完善应急预案,要通过头脑风暴去设计不同的应