Facebook高密度数据中心揭秘:ARM替代Xeon

核心提示:目前国内一些小规模的传统数据中心,PUE值可能高达3左右,这意味着IT设备每消耗1瓦特电力,数据中心基础设施便需要消耗2瓦特电力。鹏博士数据中心特有的节能冷却系统将使PUE达到1.5以下。

中国IDC圈7月15日报道:目前国内一些小规模的传统数据中心,PUE值可能高达3左右,这意味着IT设备每消耗1瓦特电力,数据中心基础设施便需要消耗2瓦特电力。鹏博士数据中心特有的节能冷却系统将使PUE达到1.5以下。

1、选择适合数据中心的空调系统

由于数据中心的发热量很大且要求基本恒温恒湿永远连续运行,因此能适合其使用的空调系统要求可靠性高(一般设计都有冗余备机)、制冷量大、小温差和大风量。

空调系统的制冷能效比(COP)是指空调器在额定工况下制冷运行时,制冷量与有效输入功率之比。该数值的大小反映出不同空调产品的节能情况。空调系统的制冷能效比数值越大,表明该产品使用时产生相同制冷量时所需要消耗的电功率就越小,则在单位时间内,该空调产品的耗电量也就相对越少。

新的强制性">国家标准《房间空气调节器能效限定值及能效等级》(GB12012.3-2010)由国家质检总局、国家标准委于2010年2月26日发布,从6月1日起将在全国范围内实施。此标准规定14000W制冷量以下民用空调器能效等级指标以及试验方法、检验规则、房间空调器产品新的能效限定值、节能评价值等。

2离心式水冷空调冷却系统系统

这是目前新一代大型数据中心的首选方案,其特点是制冷量大并且整个系统的能效比高(一般能效比在3到6之间)。

水冷冷冻机组的工作原理如下:

■冷冻水侧:一般冷冻水回水温度为12℃,进入冷冻器与冷媒做热交换后,出水温度为7℃。冷冻水一般通过风机盘管、组合式空调机组或水冷精密空调机向IT设备提供冷气。由于数据中心的制冷量大,要求温差小风量大且湿度需要控制,一般采用水冷精密空调机。

■冷却水侧:一般冷却水进水温度为30℃,进入冷凝器与冷媒做热交换后,出水温度为35℃。冷却水一般使用蒸发式冷却塔通过水蒸发来散热降温。

■冷媒侧:冷媒以低温低压过热状态进入压缩机,经压缩后成为高温高压过热状态冷媒。高温高压过热状态冷媒进入冷凝器后,将热传给冷却水而凝结成高压中温液态冷媒。高压中温液态冷媒经膨胀装置,成为低压低温液气混合状态冷媒。低温低压液气混合状态冷媒进入蒸发器后,与冷冻水进行热交换,冷冻水在此处被冷却,而冷媒则因吸收热量而蒸发,之后以低温低压过热蒸气状态进入压缩机。

大型数据中心的水冷空调系统一般由以下五部分组成,示意图如下。

■离心式冷冻机组,一般为N+1配置,有一台备机,安装在冷站机房。

■冷却塔,安装在室外,一般一台冷冻机组对应一组冷却塔(便于维修和保证备机系统正常待机)。冷却水通过冷却塔来降温,由于水在大气中蒸发,因此要设计安装水处理系统来除垢、除沙尘、除钠镁离子和病菌等,否则将大大降低制冷效率。另外,由于数据中心是全年连续运行,还要设计冬季防结冰措施。

■环形冷冻水管道。由于数据中心需要连续运行,因此冷冻水的进水和回水管道都要设计成环路,大型数据中心可能设计成二级或三级环路,这样在局部冷冻水管道或阀门发生故障时可以关闭相邻的阀门进行在线维护和维修。为了便于日后的维护、维修、更换和扩展,需要安装设计相当多的阀门。为了防止漏水和提高使用寿命,需要选择优质的阀门,有些工程使用优质无缝钢管,甚至不锈钢管。冷冻水管和冷却水管不允许经过机房区域。在水管经过的区域需要设置下水道和漏水报警设备。为了节能和防止冷凝水,冷冻水管和冷却水管都要采取严格的保温措施。典型的冷冻水循环管道回路如下图所示。

■水冷精密空调机。其实就是一个温差小风量大的大型风机盘管,一般推荐采用地板下送风和天花板上回风。为了保证IT设备的绝对安全和便于设备检修,推荐设置物理上独立的空调设备间,四周做拦水坝,地面做防水处理和设置排水管道,安装漏水报警设备。推荐采用N+1或N+2的冗余配置方案。

■水泵。冷冻水和冷却水的循环都是通过水泵进行的。水泵的节能除采用变频装置外,应采用较大直径的管道、尽量减少管道长度和弯头、采用大半径弯头、减少换热器的压降等。冷冻机房、水泵、冷却塔、板式换热器和精密空调尽量设计安装在相近的高度以减少水泵扬程。

由于大型数据中心的水冷空调系统的电力负荷很大,一般需要为水冷空调系统设计独立的配电室。

由上述可以看出,水冷空调系统比较复杂,成本也比较高,维护也有难度,但是能满足大型数据中心的冷却和节能要求。

3、免费冷却技术和数据中心选址

免费冷却(Free Colling)技术指全部或部分使用自然界的免费冷源进行制冷从而减少压缩机或冷冻机消耗的能量。常见的免费能源有:

中北部地区的冬季甚至春秋季,室外空气中储存大量冷量

部分海域、河流、地下水水温较低,储存大量冷量

部分地区的自来水中也储存了大量冷量

压缩燃气在汽化过程中产生大量冷量

目前常用的免费冷源主要是冬季或春秋季的室外空气。因此,如果可能的话,数据中心的选址应该在天气比较寒冷或低温时间比较长的地区。在中国,北方地区都是非常适合采用免费制冷技术。

数据中心在环境温度较低的季节,将室外空气经过过滤后直接送入机房作为冷源,也能节省大量能源,称为风冷自然冷却。这种自然冷却方式原理比较简单,成本也比较低,但存在以下不足之处:

要保证空气的洁净度不是一件容易的事。虽然可以通过高质量的过滤网保证空气的洁净度,但由于风量特别大,需要经常清洗更换,同时巨大的阻力也要消耗相当的能源。

湿度不好控制。加湿和除湿都是相当的消耗能源。如果采用简单的工业加湿设备,需要对加湿的水源进行高度净化(成本比较高),简单的软化水不能满足要求(对设备有害,长时间会在设备内部形成一层白色物质)。

温度过低,容易结露并除湿。因此需要进行细致严格的保温处理。

对于大型数据中心,由于距离远,风量特别大,这样就需要很大的风道,风机的电能消耗也非常的大。实际的设计和安装也是很困难的事。

不可能实现全年自然冷却,夏季的制冷方式还需要安装单独的空调设备。

因此,在大型数据中心中对自然环境要求较高,因此不推荐使用风冷自然冷却方式。

采用水冷空调系统,当室外环境温度较低时,可以关闭制冷机组,采用板式换热器进行换热,称为水冷自然冷却。这样减少了开启冷机的时间,减少大量能源消耗。湿球温度在4℃以下时可以满足完全自然冷却,在湿球温度4到10℃之间可是实现部分自然冷却。在北京,一年内平均有5个月左右可以实现完全自然冷却,有2个月左右可以实现部分自然冷却。节能效果将是非常明显的。

4、采用变频电机节约能源

我们知道,空调系统的制冷能力和环境密切相关,夏天室外温度越高,制冷能力越低,因此大型数据中心空调系统的制冷量都是按最差(夏天最热)工况设计的(空调的制冷量一般要比其在理想工况下的额定值低,这时建筑物本身不但不散热,反而吸热。)。这样,全年绝大部分时间空调系统运行在负荷不饱满状态。另外,大型数据中心的IT负荷从零到满载也需要相当的时间,一般也在一到三年之间。还有,IT负载的能耗和网络访问量或运行状态相关,根据其应用的特点,每天24小时的能耗都在变化,一年365天的能耗也都在变化。比如,游戏服务器在早上的负载和能耗都比较低,但在晚上就比较高;视频服务器在遇到重大事件时的负载和能耗就比较高。

因此,我们强烈建议在水冷空调系统中所有电机采用变频系统,这样可以节约大量的能量,其增加的投资一般在一年内节省的电费中就可以收回(基本满负荷情况下)。要注意的是在选用变频器时,要求谐波系数一般小于5%,不然将对电网造成不良影响。对于风机和水泵,输入功率和这些设备的转速的三次方成正比。例如,如果风机或水泵的转速为正常转速的50%,仅需要同一设备运行在100%额定转速时理论功率的12.5%.因此,当设备运行在部分负荷时,变速装置的节能潜力十分明显。

5、提高冷冻水的温度节省能源

冷水机组标准的冷冻水温度为7到12℃,水冷空调的标准工况也是认为冷冻水温度为7到12℃。但是这个温度范围对于数据中心来说有点低,带来以下两个不利因素:

这个温度大大低于数据中心正常运行在40%左右相对湿度的露点温度,将在风机盘管上形成大量的冷凝水,需要进一步加湿才能保持机房的环境湿度。这个除湿和加湿过程都是非常消耗能量的过程。

冷冻水的温度和冷水机组的效率成正比关系,也就是说冷冻水的温度越高,冷水机组的效率也就越高。根据YORK公司在网络上公布的材料,冷冻水温度每提高一度,冷水机组的效率就可以提高大约3%.

目前,在集装箱数据中心和高功率密度的冷水背板制冷技术中都把冷冻水的温度设计为12到18℃,已经高于露点温度,完全不会除湿,也就不需要加湿。冷冻水的温度提高后,水冷精密空调的制冷能力会下降,实际的制冷能力需要厂家提供的电脑选型软件来确定,一般会下降10%到15%.但是由于冷冻水温度提高后很少或基本不除湿和加湿,加上采用EC调速风机,电机产生的热量减少,整个水冷精密空调的实际制冷能力(显冷)下降并不多。

6、选择节能冷却塔设备

冷却塔本身的结构和体积决定着消耗能量的多少。对于一般的高层写字楼,由于安装冷却塔的位置有限,一般选择体积小的冷却塔,为了达到规定的散热量,只能加大风机的功率,靠强排风来加大蒸发量。

如果安装场地允许,请选择体积较大的冷却塔来节能能耗。根据某公司的冷却塔招标信息,相同的制冷量,益美高推荐的产品电机功率为55KW(体积比较大),马利推荐产品的电机功率为120KW,BAC推荐产品的电机功率为90KW.可以明显看出,大体积的冷却塔明显比小体积的冷却塔节能。在制冷能力等条件相同的情况下,尽量选择风机功率小的冷却塔。

依据风机轴功率与转速的三次方成正比,对多台冷却塔采用变频装置运行可能比单台冷却塔风机全速运行效率更高。对于风机选型,螺旋桨式风机一般比离心式风机的单位能耗低。

7、封闭冷通道节约能源

经过多年的实践和理论证明,数据中心最佳的风流组织是地板下送风,天花板上回风,精密空调设置单独的设备间,机柜面对面摆放冷热通道隔离并实现冷通道封闭(防止冷气短路),示意图如下。

国内电信运营商早期的数据中心多采用风道上送风方式,缺点是风道前后的风速差别很大,很难控制每个出风口的风量均匀。虽然每个风口具有调节阀可以调节风量的大小,但是最大风量无法调整,在高空调节不方便,一般运维都做不到及时调整。

8、提高机房温度节约能源

根据中华人民共和国国家标准GB50174-2008《电子信息系统机房设计规范》,A类和B类机房的主机房温度要求保持在23±1℃,也就是22到24℃。ANSI/TIA-942-2005《Telecommunications Infrastructure Standard for Data Centers》中规定冷通道温度为华氏68-77度,也就是20到25℃。美国采暖制冷与空调工程师学会(ASHRAE)2008年新的机房冷通道温度已经从2004年的20到25℃提高到18到27℃。

9、科学运维节约能源

大型数据中心通过科学运维可以大大提高空调系统的节能效率。常用的科学运维措施包括以下方面。

人走关灯和关闭大屏幕显示器,减少照明产生的能耗以及相应增加的制冷量。

尽量减少运行新风系统。在机房无人时关闭相应区域的新风系统。

建议冷通道的温度不低于25℃。定期检查冷通道的温度以免过度制冷造成能源浪费。

定期检查地板,防止各种方式的漏风。

冷通道必须完全封闭,机柜上没有设备的区域必须安装盲板,没有负荷的机柜区域不能安装通风地板。每次设备变更,都要进行检查。

在能够满足制冷的条件下尽可能提高冷冻水的温度,最高为12到18℃。

在气象环境满足的条件下,尽量使用全自然或半自然免费制冷。

定期核对数字采集数据和模拟显示仪表的数据是否一致,若发现数据存在误差,立即更换有关采集设备或仪表。

对于还没有使用的独立机房区域,关闭所有机电设备,包括冷冻水管道的阀门。

定期检修和清洗冷冻机组内的铜管和冷却塔,确保其工作在最佳状态。

对于低负荷的机房,如果精密空调没有EC风机,就要关闭相应的空调,如果是EC风机,要通过实践摸索出更节能空调运行方式。

(责任编辑:杜庆先)

时间: 2024-07-29 09:04:51

Facebook高密度数据中心揭秘:ARM替代Xeon的相关文章

图解高密度数据中心布线新技术

在今天以数据应用为中心的企业中,人们需要在更少的占 地面积上进行更多的数据处理.存储和连接.存储设备更为紧凑,服务器多采用刀片式,一个机箱里包括多个服务器,相应地,设备之间的连接也实现了高密度.数据中心每平方米的使用成本与最初的房产的成本相当.针对日后的新需求和强制的冗余考虑,公司需要面临更大的开支.高密度的数据中 心中,传统的主干和水平链路配置(如常见的每个EDA机柜接入24根双绞线或24芯光纤)已经不能适应刀片式服务器及SAN存储设备的需求,而由端口数量增加引起的机柜安装单元的占用又与昂贵的

高密度数据中心内的配电即系统

曾几何时,为了能够积极主动地管理不断上涨的电力成本,使得数据中心内的配电系统俨然成为了数据中心运营商们的一大主要的关注领域.更具体地说,其是为了帮助操作运营人员们实时的识别运行过程中的电力消耗的潜在问题,并杜绝浪费.而随着越来越多的具备未来思维的企业组织开始广泛的分享他们在设施和IT管理过程中所总结的知识和经验,使得这种基于机架的电力基础设施中推动了更加的智能化已然变成了更高的机架功率密度的当务之急.事实上,在企业数据中心内的分配链中的所有阶段实施积极主动DE 电源管理已经成为效率研究和数据中心

高密度数据中心的连续制冷破解方案

以下的文章主要介绍的是高密度数据中心的连续制冷解决方案,随着数据中心单位用电量不断加大,以及机房的发热量不断升高,在这种情况下,一旦电源发生故障,虽然服务器依靠ups系统能够继续运行.但由于制冷设备停止运行,致使机房温度快速上升,仍会导致服务器过热而停止运行.随着数据中心单位用电量不断增加,机房的发热量越来越高,在这种情况下,一旦电源发生故障,虽然服务器依靠ups系统能够继续运行,但由于制冷设备停止运行,致使机房温度快速上升,仍会导致服务器过热而停止运行.因此,目前高密度机房的趋势需要设计不间断

模块化配电系统在高密度数据中心的应用

传统的数据中心配电架构 在传统的配电系统当中,数据中心的主进线先至配电柜(配电柜一般额定功率为50~500kW),配电柜一般配有大型电力变压器用以转换电压或改善电力质量.然后,配电柜将主进线分配成一定数量的分支电路(一般额定功率为1.5~15kW)为IT设备配电.每台IT机柜使用一条或多条分支电路.IT机柜的布线通常要求使用硬管或软管,一般部署在高架地板之下. 在传统的配电系统推出之时数据中心内仅有数量非常少的大型IT设备.那时,除了对IT设备进行重要升级时执行计划宕机外,很少会对此进行变更.

光纤跳线在高密度数据中心的应用

光纤跳线在数据中心的应用非常广泛,而且近些年来数据中心光纤传输系统对带宽的需求显示出高增长的趋势,从而使用新一代的光纤和光模块可以继续探索光纤网络带宽增长的潜力.由于多模光纤跳线在成本方面具有很大的优势,促使其在数据中心的应用中占绝对优势. 在云计算环境下网络媒体的应用和推广的不断驱动下,多模光纤跳线也在不断发展,从OM1到OM2,以及从OM3到OM4开始使用的VCSEL激光器优化技术,带宽需求在不断增长.新类别OM4多模跳线光纤标准EIA/TIA492AAAD的推出,为多模光纤在未来的广泛应用

英特尔妙招多多 高密度数据中心节能

石油勘探模拟需要超大规模的高性能计算集群,同时也需要消耗大量的电能.近年来,随着石油勘探.油藏模拟的广度.深度和精度要求的日益提高,石油企业数据中心里的服务器规模也在不断膨胀.6月27日,英特尔在内蒙http://www.aliyun.com/zixun/aggregation/30943.html">呼和浩特举办了主题为"绿色计算 从'芯'开始"的中国石油行业与英特尔2008年度高性能计算研讨会.会上,中石油的代表就提供了这样一个信息,2006年该公司数据中心的电费总

揭秘Facebook欧洲最大数据中心

http://www.aliyun.com/zixun/aggregation/1560.html">Facebook位于瑞典北部城镇吕勒奥(Lulea)的数据中心.该数据中心是Facebook在美国本土之外建立的第一座数据中心,也是Facebook在欧洲最大的数据中心. 吕勒奥位于波罗的海北岸,距离北极圈只有100公里之遥,当地的气候因素是Facebook选择在吕勒奥建立数据重要原因之一.据Facebook介绍,自1961年以来,吕勒奥的气温高于30度的时间不超过24小时,在该地区建立数

高环境温度数据中心成为未来发展趋势

12月中旬,国际研究小组在英国的一份专业杂志上发布了有关碳排放的最新研究结果:尽管因为受到经济活动减缓的影响,2008年到2009年的二氧化碳排放量比往年有所降低,但到了2010年后又开始了大幅度回升,已达到5.9%的历史最高涨幅.据了解,2010年大气中的二氧化碳含量已经到达了80万年来的最高值--而这之中,数据中心的碳排放量所占的比例已经不容忽视.调查结果显示,数据中心能耗已经占到了全球一年能耗的2%.而由于云计算的迅速热门,全球各地的数据中心也开始如火如荼地建设起来,那么关于如何降低数据中

Facebook的下一代数据中心网络

498)this.width=498;' onmousewheel = 'javascript:return big(this)' height="709" alt="" src="http://s6.51cto.com/wyfs02/M00/53/88/wKioL1RqtW6zrTnyAACcKVu8WDo093.jpg" width="620" style="width: 505px; height: 299px