赛灵思挑战CPU/GPU,FPGA为数据中心的主流应用加速

12月5日,赛灵思公司战略与市场营销高级副总裁Steve Glaser与赛灵思云计算战略市场开发总监Andy Walsh就赛灵思FPGA芯片在数据中心的主流应用与记者展示了座谈。

 

Steve Glaser首先向大家介绍了赛灵思在数据中心业务里完成的一些里程碑事件。包括与IBM、高通的联手合作,也包括百度亚马逊等超大型数据中心的成功应用,同时还包括赛灵思为加速FPGA在“超七大”数据中心中的主流应用而不断推出的产品、工具,以及在行业统一标准方面的先锋地位。

 

Andy Walsh则向我们具体介绍了SC2016 全球超算大会上赛灵思重磅推出的可重配置加速堆栈( Reconfigurable Acceleration Stack ), 通过一系列的数据展示了这一堆栈对加速赛灵思FPGA 在超大规模数据中心中主流应用重要意义。

赛灵思FPGA在数据中心的典型应用

通过Andy walsh的介绍我们可以了解,全球七大超大规模数据中心公司中,已经有多家开始采用赛灵思的FPGA产品。

在百度,赛灵思FPGA被运用到机器学习和一些汽车方面的应用之中,赛灵思FPGA的资源池化能力,协助百度将序列数据的分析能力提升到以前的10倍。

在微软,在数据中心的每个服务器节点都将进行FPGA的部署,用来加速网络,数据加密以及进行流量负载均衡。

上个月,亚马逊也宣布了采用赛灵思FPGA的F1计算实例,满足用户在数据分析、视频、安防、机器学习方面的应用需求。

还有一些走在科技前沿的小型企业,例如深鉴科技,也在通过运用赛灵思FPGA产品,使得机器学习推断效率得到最大的提高,完善神经系统模型的训练,加速低精度数据的精准分析。

赛灵思FPGA的技术优势

机器学习、数据分析、视频处理、存储压缩以及虚拟网络数据传输,这是超大规模数据中心客户最关心的几个重要工作负载,也是通过FPGA可以加速完成的典型工作负载。

 

通过赛灵思所提供的相同单位功耗下赛灵思FPGA与服务器CPU性能对比中可以了解。在相同功耗下,赛灵思FPGA的机器学习处理能力是CPU的11倍、数据分析SQL查询能力是CPU的33倍、视频转码和存储压缩能力可以达到40倍,云计算数据中心中最重要的虚拟网络数据传输能力也可以达到CPU处理性能的23倍。

 

光用数字对比,效果并不明显,在接下来的介绍中,Andy Walsh具体对比了在加速机器学习和数据分析时相同性能的至强CPU与池化FPGA产品的成本、功耗与空间对比。赛灵思提供的数据显示,一台采用双路至强CPU、16个池化FPGA的服务器所提供的加速机器学习和数据分析处理能力,需要24台双路至强服务器才能进行满足。FPGA与至强服务器的系统成本为1:10、功耗为1:12、机架空间占用为1:12。综合对比下,赛灵思的池化FPGA产品的使用成本仅是双路至强服务器的1/10。

FPGA将加速数据中心硬件架构变革

目前数据中心的硬件架构还是以x86 至强服务器为主体。做为一款通用型处理芯片,x86的适用性方面依占据无可比拟的技术优势。但是在当前云计算软件定义技术的冲击下,x86架构在机器学习、数据分析、视频处理、存储压缩以及虚拟网络数据传输中的处理性能问题开始凸显。由此产生了投入成本过高、运营维护庞杂以及横向扩展无力等一系列问题。因此,在数据中心中开始探索采用GPU、FPGA等产品来协助高性能运算、视频处理、虚拟网络传输等应用的技术实施。

赛灵思正是把握了这种技术动向,推出可重配置加速堆栈方案,可以帮助全球最大的云端服务供应商们快速开发和部署加速平台。专门针对云级应用而设计的基于FPGA的赛灵思可重配置加速堆栈,包括库、框架集成、开发板并支持OpenStack。通过赛灵思FPGA,该可重配置加速堆栈方案提供了业界最高的计算效率:比x86服务器CPU高出40倍;比竞争型FPGA方案高出6倍。

此外,赛灵思还正在致力于FPGA产品的通用性和普及性方面的工作。多年来,阻碍赛灵思FPGA广泛应用的最大障碍就是只有硬件工程师才能实现的硬件语言编程模式,把占据80%以上的软件和系统级工程师挡在了门外。赛灵思通过推出SDx软件定义的设计环境系列,为来自不同应用领域的大量的软件和系统级工程师打开了硬件创新的大门。

据介绍,目前 SDx产品库目前已经积累了一千多个产品应用,这些产品在使用时,已经无需经过深层次的FPGA开发或硬件编程即可应用。所以在数据中心和云计算这样的领域,赛灵思FPGA可以通过合适的库、合适的openstack环境来支持高层次的框架,这些应用的开发人员就不需要FPGA方面的专业知识。并且在嵌入式市场,赛灵思FPGA可以支持C/C++软件定义的开发环境。预计在今后五年时间内,赛灵思的用户数量将是现在的5倍(从50000到250000),而且主要是软件和系统工程师,而不是像过去那样主要是FPGA和硬件工程师。FPGA的应用普及程度和应用困难度也都会显著的降低,相信到时候,数据中心由x86一统天下的硬件架构格局也会因此而发生重大改变。

原文发布时间为:2016年12月8日

本文作者:毕波 

时间: 2024-08-15 19:07:01

赛灵思挑战CPU/GPU,FPGA为数据中心的主流应用加速的相关文章

数据中心100G主流市场分析

支持100G的接口与应用技术种类非常多且各具特点.这对于即将部署100G的数据中心用户的选择带来了困惑:具体选择什么类型的100G对于数据中心用户从技术层面,长远升级以及投资回报率上更具有优势呢?本文尝试从这些角度提供一些可供参考的建议. 自2010年IEEE802.3ba标准发布之日起,100G的应用从技术层面已经具备了可行性,从2010年以来到现在,100G的应用与技术层面的探讨一直备受关注.而由于IEEE802.3ba中无论是单模还是基于多模光纤技术所支持的100G应用并未形成规模化的应用

三大挑战!云计算时代的数据中心

在云计算环境下的数据中心所管理的IT资源是经过高度虚拟化的,我们需要对资源进行一次动态部署,所以也需要面临资源配置的管理问题,而怎样解决这类问题就成了重中之重. 挑战一:资源配置如何管理? 云数据中心管理的IT资源是高度虚拟化的,需要对资源进行动态部署,因此也就面临着资源配置如何管理的问题. 针对资源配置的管理问题,NovellBSM配置管理数据库能够实时.动态地跟踪记录构建云服务的各项IT资源及其配置,并自动描绘各资源对象间关联关系,同时联邦数据集成技术,收集各配置项的信息,以可视化的方式描述

数据中心100G主流应用技术分析与市场预测

[导读]经过这几年的规模化部署,40G已经整体市场已经趋于稳定状态.而100G的规模化部署将处于一触即发的静默状态,为什么这么说呢? 罗森伯格亚太电子有限公司:孙慧永 一,摘要 自2010年IEEE802.3ba标准发布之日起,100G的应用从技术层面已经具备了可行性,从2010年以来到现在,100G的应用与技术层面的探讨一直备受关注.而由于IEEE802.3ba中无论是单模还是基于多模光纤技术所支持的100G应用并未形成规模化的应用趋势,这与早期标准多模光纤应用以10G*10并行传输100G的

未来,曙光说要像搭积木一样搭建数据中心

提到数据中心,你想到的是怎样的场景? 若干个房间内排布着一排又一排的服务器,交错的电线可能埋在了地板下方,机房永远开着冷气,每一台服务器上都闪着绿莹莹或者蓝幽幽的光,显示一切正常. 还是更酷炫一点,如同<碟中谍>5的场景中,把数据存储放在水下? 立体的数据中心 在曙光看来,绿色节能与智能化将是成熟数据中心的"标配",未来数据中心都将围绕这两个方向来优化. 曙光服务器产品事业部总经理秦晓宁在2016年中科曙光创新技术全国巡展上海站上介绍了其液冷服务器,并描绘了未来数据中心可能

关注数据中心NFV性能

网络功能虚拟化(NFV)显然在逐渐兴起,全球运营商的生产部署量日益增加.运营商正在寻求创建灵活的,以软件为导向的拓扑,可以按需提供服务并降低运营成本.从数据中心的性能角度来看,存在一个问题:在云端和企业数据中心工作的传统IT虚拟化方法无法实现经济高效的支持运营商所需的以I/O为中心和时间敏感型的工作负载. NFV,顾名思义,涉及将网络功能从网络设备中抽离,并以软件来实现.工作负载和网络资源可按需调整,这种即时供应服务方式在运营商中有着显著地上升空间,消除了网络功能必须存在于硬件设备中导致的"服务

【博文推荐】如何做好大型数据中心的运维

什么叫数据中心?维基百科给出的定义是"数据中心是一整套复杂的设施.它不仅仅包括计算机系统和其它与之配套的设备(例如通信和存储系统),还包含冗余的数据通信连接.环境控制设备.监控设备以及各种安全装置".在云大行其道的今天,随着数据中心建设规模的不断扩大,新技术的层出不穷,数据中心变得越来越复杂.大型数据中心往往是由很多功能不一的单元系统组成,其运维工作需要具备方方面面的知识,包括硬件.网络.服务器.存储.安全以及业务上的东西,需要一体化联动地去做好运维工作. 当一个数据中心的规模非常大,

智能微模块构筑随需而动的智慧数据中心

随着企业每年的IT投资增速日益加快,传统数据中心的建设模式正面临越来越多的挑战.首先,传统数据中心基础设施扩容的不灵活性,导致传统数据中心通常采用在规划阶段就一次性部署完成,造成初期投资大.负载率低.能效低.投资周期过长.甚至出现正在建设中的数据中心,由于业务的快速增长,在未建设完成时就需要重新规划设计的现象.再次,高能耗侵蚀了企业大量利润,当前国内大部分数据中心PUE在1.8-2.5之间,一个10MW IT设备的数据中心年电费高达2.19亿人民币(以PUE2.5 估计),非IT设备能耗消耗太高

如何做好大型数据中心的运维

什么叫数据中心?维基百科给出的定义是"数据中心是一整套复杂的设施.它不仅仅包括计算机系统和其它与之配套的设备(例如通信和存储系统),还包含冗余的数据通信连接.环境控制设备.监控设备以及各种安全装置".在云大行其道的今天,随着数据中心建设规模的不断扩大,新技术的层出不穷,数据中心变得越来越复杂.大型数据中心往往是由很多功能不一的单元系统组成,其运维工作需要具备方方面面的知识,包括硬件.网络.服务器.存储.安全以及业务上的东西,需要一体化联动地去做好运维工作. 当一个数据中心的规模非常大,

虚拟化成首选 降低数据中心复杂性

数据中心的高成本和复杂性已经成为一个众所周知的事实,数据中心的虚拟化也已经成为一个热门话题,但是数据中心所面临的问题到底有多严重,虚拟化在数据中心的应用到底热到什么程度却并没有多少人能清楚地说出来.赛门铁克公司于2007年11月8日发布一份数据中心调查报告,该报告调查了全球2000家大型公共机构的数据中心负责人.报告称,数据中心负责人开始采用虚拟化和服务器整合战略来应对当前数据中心复杂性. 数据中心面临的挑战 该调查表明,数据中心面对的挑战主要来自严格的内部服务等级协议.不断增长的数据中心成本和