这一方案可以无需使用空调,能源使用率(PUE)逼近了理论极限值 1.0。
如何给服务器快速低耗高效低成本降温始终是一个难题。阿里云科学家在 4 月 26 日的云栖大会·南京峰会上展示了全浸没的服务器——麒麟,把整台服务器浸在液体里循环冷却,这一方案可以无需使用空调,能源使用率(PUE)逼近了理论极限值 1.0。这是「麒麟」数据中心解决方案首次公开展示,这种耗能极低的技术方案将应用于阿里云服务,也将成为阿里巴巴的 NASA 计划的重要基础,可为未来 20 年提供计算能力。
利用热交换的原理,阿里巴巴工程师将服务器完全浸没在一种特殊的冷却液里,极速运算的服务器产生大量热量可被冷却液直接吸收进入外循环冷却,全程用于散热的能耗几乎为零。在传统数据中心里,几乎有一半的电能消耗在了散热上。
液体降温是一种极为高效的降温散热方式,但运用到商用服务器集群上还是头一次。阿里云科学家克服了服务器系统、制冷系统、冷却材料等多个领域的难题,实现了零噪音、零污染、绿色节能,可支持超过 200kW 功耗的服务器集群。
得益于浸没式液冷高效的散热效率,「麒麟」无需风扇、空调等大型制冷设备,可在任何地方部署,节省空间 75% 以上,单位体积内的计算能力比过去提升了 10 倍;高密封性也使得元器件远离湿度、灰尘、振动的影响,受干扰情况几乎为 0;同时,这种特殊液体完全绝缘且无腐蚀性,即使浸没元器件 20 年以上,成分不会发生任何变化,也不会对电子元器件产生任何影响。
IDC 预计,2020 年将产生 40ZB 的数据。与此同时,到 2024 年数据中心耗电量将占到全社会耗电量的 5% 以上。传统风冷显得越来越力不从心,「麒麟」的出现打破了能耗对数据中心的制约,接近 1.0 的能源使用效率(PUE)可以让电力发挥出最大的计算能力。
目前,「麒麟」已经通过了初步测试和验证,将通过阿里云对外提供计算服务。
作为阿里巴巴 NASA 计划的重要一环,阿里巴巴工程师正在研发一条绿色高效的数据中心解决方案,陆续推出了年均 PUE 低于 1.3 的深层湖水制冷数据中心、PUE 低于 1.25 的自然风冷数据中心,而今天,阿里巴巴「麒麟」的 PUE 正走向理论极限值 1.0。
原文转自创见。