摘要:近年来,由于金融电信等行业需求的增长、既有机房的升级改造、以及政府公共服务平台建设的加大投入等各方面的驱动下,数据中心获得了空前的发展,但同时,也面临着多方挑战,绿色节能成为数据中心未来发展的重要趋势。
数据中心规模的剧增带来了运营成本的大幅提高,其中电力成本是最主要的运营成本,如何提升电源利用效率成为各大数据中心大户的一大课题。目前包括Google、Facebook、微软、BAT在内,都在积极引入各种绿色节能技术以降低PUE,通过液冷技术降低能耗的方式也逐渐进入了人们的视野。
所谓液冷,是指通过某种液体,比如水、氟化液或是某种特殊的不导电的油,来替代空气,把CPU、内存条、芯片组、扩展卡等器件在运行时所产生的热量带走。其工作方式大致可以分为两种,一种是间接的冷板方式,即器件本身不直接接触液体,而是先把热量传输给装有液体的铜制冷板,再通过液体循环带出设备,由于冷板只能覆盖部分发热元件,其他元件的热量仍然需要风扇来将热量带出去;
另一种是直接的浸没方式,即把器件甚至是整机直接浸泡在液体中,再通过液体循环把热量带出去,完全不需要风扇。前者是对风冷方式的改良,是早期数据中心液冷技术向单机系统的迁移,后者则显然更具革命性。
今天我们就给大家介绍一款间接的冷板式液冷服务器:联想NeXtScale nx360M5 WCT(Water Cooling Technology)。
联想NeXtScale nx360M5 WCT是将冷却水从特制的注水口流入,经过密闭的散热管流进主机,带走CPU、内存、InfiniBand网卡的热量后再流出。而且,经过独特的设计,这套系统对冷却水的温度要求非常宽松,即便是45摄氏度的水,也能够参与热交换正常散热。
液冷服务器之所以越来越受到关注,其原因还在于同风冷方式相比,液冷系统密度更高、更节能、防噪音效果更好。一个数据中心,要想实现PUE值低于1.2,通过液冷服务器可以轻松实现,目前风冷技术下,每机柜的功耗最多只能到30千瓦,而液冷可以轻松达到每机柜100千瓦,这样可以实现更高密度的数据中心。另外,对于一个30千瓦的机柜,服务器运行时产生的噪音会达到85分贝以上,这意味着两个人面对面说话时都需要扯着嗓子喊才能让对方听到,而使用冷板式,可以将噪音降至60分贝以下,使用浸没式,就能达到完全静音的效果。
值得一提的是,服务器的液冷技术并不需要昂贵的水冷机组,在减少总体拥有成本的同时,显着增加了数据中心的能源效率,而且做到了绿色环保。它还可以控制运营成本,使初始投资实现快速回报。这在那些高电力成本、高成本的数据中心显得尤其重要。
其实联想这款液冷服务器早在2014年的SC全球超级计算大会上就有展示,德国莱布尼茨实验室已经使用了联想的NextScale nx360M5冷板式液冷服务器,联想基于NeXtScale为他们打造了采用水冷技术的超级计算机SuperMUC。
根据数据显示,水冷技术的SuperMUC相较于风冷节省了多达25%的能耗。而且,专用的管理软件还可跟踪分析SuperMUC的能耗数据,对运行频率、任务分配进行精细化管理。综合下来,SuperMUC最高可节省40%能耗,全年共节省180万欧元的开支。
同时,由于水冷技术高效的冷却效率,节点内CPU运行温度会远比风冷状态下低,智能睿频加速特性也可以持续稳定的开启,性能表现还能提升15%,而且,更高的冷却效率,也意味着在不降低性能的前提下,服务器密度还能继续提升,实现超高密度的数据中心或超级计算机。
写在最后,目前,冷板式的液冷技术已经比较成熟,具备了产业化的可行性。但对于更具革命性的浸没式液冷技术,仍然处于发展初期。据了解,液冷服务器的用户主要还是大型数据中心和超级计算中心,这些用户对于高密度扩展、绿色节能、机房静音的需求比较迫切,已经有一些用户开始使用液冷服务器,不过对于企业级应用,无论是普通的服务器,还是大型数据中心,液冷技术的普及之路还刚开始。
本文转自d1net(转载)