近日,Google宣称他们位于在加州的数据中心PUE(能源利用效率)上再创新高。若遵循以下指导方针,你同样可以实现更高效的能源利用,一名Google官员这样说道。
Chris Malone是Google的热能技术建筑师,他详细阐述了这个互联网搜索巨人是如何在它的10座数据中心里达到1.16的PUE值。
PUE指标由Green Grid(绿色网格)设计,其计算方式为:PUE = 数据中心总设备能耗/IT设备能耗。
数据中心PUE的目标是让计算结果尽可能的接近1.0。根据Uptime Institute最近的一份调查,数据中心维护人员与所有者反馈的平均数值为1.8,意味着IT设备每消耗1瓦特能源,将额外花费0.8瓦特用于能源转换、制冷与其他开销。
通常数据中心PUE问题源
降低数据中心PUE数值最简单的方法就是关注冷却,Malone说。
“优先考虑冷却问题。”Malone说,“因为这方面通常都有极大的改善余地。”在一个典型的PUE值为2.0的数据中心内,IT设备消耗50%的能源,而冷却设备消耗大约35%左右负载。与之相比,Google PUE值为1.16的数据中心内,设备消耗86%的能源,而冷却仅为9%。
数据中心专家可以通过调整空气流(将冷热气流分离),提高数据中心运行环境温度,使用省煤器与外部空气优化冷却效率,Malone说。
智能电源与备份策略同样可以提高能源利用率。在电源前端,Malone主张尽量减少转换次数。
“理想情况下最好只进行一次转换,”他说。数据中心应该使用最一流的UPS产品。“若选择最先进的商业产品并遵照其最佳实践,将可以减少约0.24的PUE开销。”
即使是微小的变更也能对PUE产生很大影响,Malone说。Google在一个250,000kW的网络设备机房上投资了约20,000美元,该机房之前的PUE为2.2至2.5,现在已经降为1.6。他们采用的技术包括了改善穿孔瓷砖布局,关闭过度冷却至80.6°F(26.9℃),提升相对湿度并减少冷热通道混合。Google不到一年就赚回了相关成本,既没有影响冷通道抑制,也没影响免费冷却,甚至不会对冗余与正常运行时间造成影响。
改善数据中心PUE可行的举措
出席展会的数据中心运维人员也表示Google提供了可靠的建议。
“很显然,我们可以完成此类的变更,”Juan Murguia说,他是墨西哥CEMEX的数据中心经理。诸如存储热空气,并在机房空调设备(CRAC)上增加烟囱这样的简单解决方案“确实有效”,而且“进行这些改进并不会产生多少费用”。
Steve Press是Kaiser Permanente某数据中心设施服务的执行董事,亦对此表示赞同。在大型数据中心中调节冷却效率可以帮助将PUE从1.67降低至1.45,要感谢像Google这样的公司,因为他们,降低数据中心PUE变得更容易了。“像Google这样的企业已经给我们做了榜样,可以放心尝试与购买相关的冷却技术了。”他说。
可是数据中心运维人员依旧需要进行大量的工作,才可逐渐达到理想的PUE。
根据报告,数据中心PUE平均值为1.8,只有大约18%的受访者表示达到了Google“轻松目标”的PUE值1.6,而且有21%的受访者表示当前PUE值在2.0,甚至更高。
(责任编辑:蒙遗善)