标准的数据中心机房,要求提供恒温恒湿的内部运行环境。当然,实际上做到恒温恒湿有些困难,毕竟不同设备不同时刻散热量都在变化,局部温差一直都存在,一般标准要求机房内部温度控制在18~25摄氏度之间,湿度保持在40%~60%为宜。
要实现数据中心机房内部的温湿度标准,必然离不开空调系统。自从有了数据中心,就要有空调系统。通过空调来调节数据中心内部的温湿度内循环,给各种设备提供良好的运行工作环境,提升设备的运转效率,并可延长设备的使用寿命。现在,出现了一些依靠自然通风的数据中心,去掉空调系统,以便减少在制冷上的能耗,不过这类数据中心需要建在特定的地区,依靠大自然实现通风降温的目的,真正投入使用的寥寥无几,绝大多数数据中心还是通过封闭的环境,部署空调系统来实现内部的恒温恒湿。然而,任何系统都有其不可靠的一面,空调这种大型设备也有故障情况的发生,一旦空调系统停转,给数据中心带来的影响是极大的。
现在的数据中心内部设计的都是封闭性很好的机房,尽量减少内外部的热交换,让大部分热量都通过通风通道被带出,减少能耗。这样做带来的风险是,一旦空调停转,内部设备排除的大量热量无法及时排出,内部温度会迅速升高。即便很多设备有强大的风扇也无济于事,因为这些设备上的风扇都是吹风,不是降温的,产生的热量无法及时排放出去,在内部累积。而这里很多设备都是精密设备,对温度都很敏感。比如服务器,工作温度不能超过50度,交换机工作温度不能超过70度,一个封闭的数据中心环境从二十多度爬升到50度也就几十分钟的事儿,所以空调系统停转对数据中心来说危害极大,若时间稍长,很多设备就会因为温度过高而烧坏,有些设备可能自身有过温的防护,当温度过高时停止工作,这样也会造成大面积的业务受到影响。空调系统也是有好有差,有的空调只能傻瓜式地降温,导致温湿度变化很大,内部出现很多局部热点,这样有的设备长期工作在良好的温湿度环境中,而有的设备周围则忽冷忽热,变化温差很大,这样温湿度频繁变化对设备内部的元器件损伤更大,要比简单的升温或降温还要大。还有就是产生的局部热点,甚至在一台设备的内部也会有局部温湿度的差异,这对设备的使用寿命是有影响的,冷热不均的受热可以加速设备内的器件老化。对于电子设备,设计人员经常要做高低温实验,就是考验设备的抗温性,要满足数据中心的使用标准要求。
数据中心的空调系统有别于常规舒适性空调系统,该类设施空调系统的负荷特点是显热负荷密度大、显热比高,数据中心里设备的耗电量会百分之百转化为显热负荷。数据中心空调负荷强度高,即使在冬季仍然需要空调供冷。一旦空调系统出现故障,内部设备散热量无法及时消除,机房温度很快超过设备对工作温度的要求,可能会导致设备的损坏,造成巨大损失。因此,数据中心要避免空调系统出现单点故障,保证系统24小时全天不间断供冷,并且能在线维护,确保系统不间断供冷的情况下可以维修或更换部分设备或者配件。空调是数据中心内部一个较为复杂的系统,包括风冷和水冷两种制冷技术,选择哪种因地而异。如果采用水冷冷水机组的话,还需要在设计过程中单独增加一套冷却水的循环系统,包括冷却水泵,冷却塔和电子水处理仪等设备,每个制冷空调系统附近都有冷却水补水池,至少由两路市政给水,当市政给水出现故障时,水池容积最少满足系统满负荷连续运转24小时,两路冷水经不同路由送至数据中心内各楼层及各空调机房,满足容错系统的物理分割要求。冷水管路和机房精密空调均为2N配置:“两路市电电源、备用电源、2套低压配电系统、2N冗余的机房专用空调系统、机柜系统”。任何一路冷水或任何一台精密空调故障,均不影响关键负荷100%运行,保证在线维护的需要。当空调设备突发故障时,能及时关断故障设备两侧的阀门,检修或更换故障设备,同时还能保证除关断阀门管路之外的空调系统,内部设备都正常运转。在冷源上,可以采用备份甚至双冷源系统,空气源热泵系统供新风机组及辅助区域空调,部署蓄冷罐作为应急备用冷源,保证系统断电时不间断供冷。在管路上,冷源侧及末端均采用复线或环路设计,以提高水系统的可靠性与安全性,保证系统不间断运行,实现不间断的数据信息服务,要设计出有高可用性、高可靠性、高安全性及高可扩展性的空调系统。
当然,做好空调系统的冗余没错,这可大大提升数据中心运行的稳定性。不过,这也增加了数据中心运行成本,要知道空调系统可是一个电老虎,占去了数据中心的三分之一能耗,所以也不能一味地考虑空调系统的冗余,要因地制宜地、合理地部署空调系统。最关键的是要做好空调运行的监控工作,一旦发现停机,立即启动备用系统,或者在最短时间内修复正常。
本文作者:佚名
来源:51CTO