风冷VS液冷:数据中心散热谁更“彪悍”?

  【天极网服务器频道S档案室】数据中心散热是否理想是衡量数据中心能效高低的重要指标,当前关于数据中心的散热方式主要有风冷和液冷两种,那么风冷和液冷究竟谁更适合在绿色数据中心部署,它们有什么差异点,我们一同探讨这个问题。

&">nbsp;

如不能收看,请点击此处下载视频

(作者:许京杨 柏景福责任编辑:许京杨)

时间: 2024-09-20 15:34:47

风冷VS液冷:数据中心散热谁更“彪悍”?的相关文章

把服务器泡在液体里散热?阿里云推出黑科技:浸没式液冷数据中心 | 潮科技

这只"麒麟"属水. 把服务器泡在液体里散热?阿里云推出黑科技:浸没式液冷数据中心 | 潮科技数据中心是耗能大户.根据IDC,到2024年数据中心耗电量将占到全社会耗电量的5%以上.其中,散热占到了数据中心非常大比例的电能消耗,有的甚至可以到一半以上. 为了节约散热成本,不少国际互联网巨头,常常会把数据中心建在爱尔兰这种气候阴凉的地方.可是,如果可以服务器直接泡在液体里散热,是不是黑科技? 4月26日的云栖大会·南京峰会上,阿里云展示了全浸没的"凉得快"服务器--麒麟

数据中心散热,阿里居然玩出了这些花样

4月26日,阿里云在云栖大会·南京峰会上展示了黑科技--全浸没"凉得快"服务器麒麟,这是一种数据中心散热解决方案. 阿里云的"麒麟"采用了浸没式液冷散热的服务器部署方案,利用绝缘冷却液取代传统风冷. 由于无需风扇.空调等制冷设备,可在任何地方部署,因此也极大地降低了冷却能耗和空间消耗.这种浸没液冷服务器集群技术,可将数据中心能源使用效率(PUE)大幅降低到接近于理论极限值1.0(能源使用效率),达到世界领先水平. 阿里云为什么要推麒麟液冷? 随着"大数据时

机柜学问:数据中心散热与环境建设

机房散热的效果,与机柜选择以及机柜的摆放密切相关.有关机柜很容易被忽略.目前液冷(或称水冷)机柜是讨论最多的话题,更准确的描述是采用液冷门的机柜. 高密度服务器部署是数据中心建设发展的必然,由此而引发的散热问题,理应引起高度的重视.小小一个机柜,蕴含着巨大的玄机. 新一代数据中心是当今的热点,无论是资源整合.虚拟化;还是绿色节能.自动化以及安全管理,都是业界津津乐道的话题. 随着新一代数据中心的建设,网络.服务器.存储等基础设备进一步集中,这就对数据中心的基础环境提出了新的要求.以刀片服务器应用

数据中心散热新趋势:将服务器浸没油中

对于硬件发烧友来说,他们经常采用一些极端的冷却方案,包括循环水冷,以及将硬件全部浸泡在油中,更有甚者采用Peltier冷却(半导体制冷片)的方式. 一些追求超频世界纪录的DIY玩家也会采用干冰或液氮也保证他们在极限超频时无需担心硬件因为温度过高而停止工作.实际上某些时候处理器在温度过低时也会停止工作,例如当年的Core 2 http://www.aliyun.com/zixun/aggregation/38398.html">Extreme QX9650在-60度到-90度时将会自动断电.

HP集装箱数据中心——小型集装箱更节约空间

HP最新的集装箱式数据中心属于一个小型集装数据中心版本,这一次的产品利用了标准的.长度20英尺的船载集装箱,外型尺寸只有首款产品的一半大小. HP希望这种小型系统较低的起步价会吸引更多的客户.而且尺寸缩小后也更容易交货,因为在全球的某些地区,其道路状况无法通行HP原先重达10万磅(约45吨),长度达40英尺(约12米)的集装箱,HP的一位产品经理Jean Brandau说. HP称此类产品为http://www.aliyun.com/zixun/aggregation/14109.html"&g

青岛市加快建设“北方数据中心”让城市更“智慧”

青岛市加快推进大数据重点项目和信息基础设施建设,打造"北方数据中心"."大数据+"正在让城市建设.运营.管理更加科学,城市更加"智慧",百姓生活更加方便. 据山东人民广播电台<山东新闻>报道,出门先查路况,看见红色路段绕道走,这已经成为很多像韩先生这样的有车族开车的一个习惯.青岛智能交通系统上线运行一年多来,分布在市区的1248个信息 采集点每天会采集500万条交通流数据和1800万条过车数据,由此延伸出交通诱导.执法监管.违法查询等

数据中心专家为啥更青睐API?

如今的数据中心正逐渐从硬件结合的系统向软件定义的网络.存储甚至电池转型.这种转变的一个后果就是数据中心技术人员技能组合变化. 数据中心团队在手动配置环境上花费的时间越来越少,转而在应用程序编程接口(API)上投入更多的时间,这一自动化工作的趋势越来越常见,并且还在不断增长,软件组件的范围也不断扩大. 传统IT人员捣鼓数据中心硬件,需要从一堆意面一样的线缆中手动连接到系统背板.技术人员需要依靠晦涩的脚本和命令行界面来分配服务器.存储和网络资源.这种方法相当耗时,也容易出错. 连接到数据中心网络的各

数据中心的“奇葩”散热方式

为解决数据中心的散热问题,工程师们操碎了心. 早前,Facebook.Google都将自家的数据中心建在寒冷的北欧国家.而前不久,有传言说微软计划在海底建数据中心,通过"极度深寒"来为服务器等设备降温. 城会玩! 我们知道,数据中心有一个非常通用的考核指标--PUE(Power Usage Effectiveness),它是数据中心消耗的所有能源与IT负载使用的能源之比,其基准值为2,越接近1表明能效水平越好,绿色化程度越高. 统计数据表明,数据中心冷却功耗占到整体功耗的45%-50%

重新定义数据中心 解读液冷服务器发展潮流

随着移动数据.云计算和大数据业务的迅猛发展, 数据中心建设规模越来越大,数据中心拥有者对数据中心节能的诉求,也逐渐突显出来.近年来,出现了许多数据中心节能新技术,但都没有突破思维瓶颈, 一直孤立地关注数据中心基础设施层面本身的技术创新,并未将服务器设施层面纳入数据中心节能工程中, 统一地.系统地思考数据中心的节能问题,造成数据中心的设计PUE值难以突破1.60这个极限. 曙光液冷服务器PHPC300 行业诟病困扰数据中心降耗节能 2000年前后的互联网泡沫,给人类留下的技术遗产是服务器形态的革命