人工智能芯片FPGA与ASIC的产业分析

随着人工智能产业链的火速延伸,GPU并不能满足所有场景(如手机)上的深度学习计算任务, GPU并不是深度学习算力痛点的唯一解。目前以深度学习为代表的人工智能计算需求,主要采用GPU、FPGA等已有适合并行计算的通用芯片来实现加速。

FPGA人工智能芯片.jpg

在产业应用没有大规模兴起之时,使用这类已有的通用芯片可以避免专门研发定制芯片(ASIC)的高投入和高风险。但是,由于这类通用芯片设计初衷并非专门针对深度学习,因而天然存在性能、功耗等方面的瓶颈。随着人工智能应用规模的扩大,这类问题将日益突出。

一项深度学习工程的搭建,可分为训练(training)和推断(inference)两个环节:训练环境通常需要通过大量的数据输入,或采取增强学习等非监督学习方法,训练出一个复杂的深度神经网络模型。训练过程由于涉及海量的训练数据(大数据)和复杂的深度神经网络结构,需要的计算规模非常庞大,通常需要GPU集群训练几天甚至数周的时间,在训练环节GPU目前暂时扮演着难以轻易替代的角色。

推断(inference)环节指利用训练好的模型,使用新的数据去“推断”出各种结论,如视频监控设备通过后台的深度神经网络模型,判断一张抓拍到的人脸是否属于黑名单。虽然推断环节的计算量相比训练环节少,但仍然涉及大量的矩阵运算。在推断环节,除了使用CPU或GPU进行运算外,FPGA以及ASIC均能发挥重大作用。

FPGA(可编程门阵列,Field Programmable Gate Array)是一种集成大量基本门电路及存储器的芯片,可通过烧入FPGA配置文件来来定义这些门电路及存储器间的连线,从而实现特定的功能。而且烧入的内容是可配置的,通过配置特定的文件可将FPGA转变为不同的处理器,就如一块可重复刷写的白板一样。因此FPGA可灵活支持各类深度学习的计算任务,性能上根据百度的一项研究显示,对于大量的矩阵运算GPU远好于FPGA,但是当处理小计算量大批次的实际计算时FPGA性能优于GPU,另外FPGA有低延迟的特点,非常适合在推断环节支撑海量的用户实时计算请求(如语音云识别)。

ASIC(专用集成电路,Application Specific Integrated Circuit)则是不可配置的高度定制专用芯片。特点是需要大量的研发投入,如果不能保证出货量其单颗成本难以下降,而且芯片的功能一旦流片后则无更改余地,若市场深度学习方向一旦改变,ASIC前期投入将无法回收,意味着ASIC具有较大的市场风险。但ASIC作为专用芯片性能高于FPGA,如能实现高出货量,其单颗成本可做到远低于FPGA。

FPGA的灵活性,很多使用通用处理器或ASIC难以实现的下层硬件控制操作技术利用FPGA可以很方便的实现,从而为算法的功能实现和优化留出了更大空间。同时FPGA一次性成本(光刻掩模制作成本)远低于ASIC,在芯片需求还未成规模、深度学习算法暂未稳定需要不断迭代改进的情况下,利用具备可重构特性的FPGA芯片来实现半定制的人工智能芯片是最佳选择。在众多领域都有替代ASIC的趋势,据市场机构GRANDVIEW RESEARCH的数据,FPGA市场将从2015年的63.6亿增长到2024年的约110亿美元,年均增长率在6%。

尽管FPGA倍受看好,甚至新一代百度大脑也是基于FPGA平台研发,但其毕竟不是专门为了适用深度学习算法而研发,实际仍然存在不少局限:第一,基本单元的计算能力有限。为了实现可重构特性,FPGA内部有大量极细粒度的基本单元,但是每个单元的计算能力(主要依靠LUT查找表)都远远低于CPU和GPU中的ALU模块。第二,速度和功耗相对专用定制芯片(ASIC)仍然存在不小差距; 第三,FPGA价格较为昂贵,在规模放量的情况下单块FPGA的成本要远高于专用定制芯片。

近几年来,定制芯片的性能提升非常明显。例如英伟达首款专门为深度学习从零开始设计的芯片Tesla P100数据处理速度是其2014年推出GPU系列的12倍。谷歌为机器学习定制的芯片TPU将硬件性能提升至相当于当前芯片按摩尔定律发展7年后的水平。正如CPU改变了当年庞大的计算机一样,人工智能ASIC芯片也将大幅改变如今AI硬件设备的面貌。如大名鼎鼎的AlphaGo使用了约170个图形处理器(GPU)和1200 个中央处理器(CPU),这些设备需要占用一个机房,还要配备大功率的空调,以及多名专家进行系统维护。而如果全部使用专用芯片,非常可能只需要一个盒子大小,且功耗也会大幅降低。

下游需求促进人工智能芯片专用化。从服务器,计算机到无人驾驶汽车、无人机再到智能家居的各类家电,至少数十倍于智能手机体量的设备需要引入感知交互能力和人工智能计算能力。而出于对实时性的要求以及训练数据隐私等考虑,这些能力不可能完全依赖云端,必须要有本地的软硬件基础平台支撑,这将带来海量的人工智能芯片的需求。

朗锐智科(www.lrist.com)认为在芯片需求还未成规模、深度学习算法暂未稳定需要不断迭代改进的情况下,利用具备可重构特性的FPGA芯片来实现半定制的人工智能芯片是最佳选择。随着人工智能算法和应用技术的日益发展,以及人工智能专用芯片ASIC产业环境的逐渐成熟,人工智能ASIC将成为人工智能计算芯片发展的必然趋势。

时间: 2024-10-01 12:24:14

人工智能芯片FPGA与ASIC的产业分析的相关文章

专访阿里云异构计算负责人:异构计算,GPU、FPGA、ASIC芯片将三分天下

在IT界,异构计算并不是一个新兴的词. 近十年来,计算行业经历了从32bit."x86-64".多核心.通用GPGPU以及2010年"CPU-GPU"异构计算的变迁.而最近几年,随着人工智能.高性能数据分析和金融分析等计算密集型领域的兴起,异构计算才突然火了起来. 因为传统通用计算的方式已经无法满足我们对计算能力的需求,异构计算被认为是现阶段挑起计算大梁的关键技术,阿里云异构计算产品解决方案就在这样的大环境下诞生了,这支团队的掌舵人正是张献涛. 张献涛,花名旭卿,武

一文看懂人工智能芯片的产业生态及竞争格局

近日,国内人工智能芯片公司寒武纪科技(Cambricon)获得了一亿美元A轮融资,是目前国内人工智能芯片领域初创公司所获得的最高融资记录,如果要说这桩融资对人工智能领域的最直接意义,或许是让人工智能芯片逐渐走入了更多人的视野. 深度学习不仅在传统的语音识别.图像识别.搜索/推荐引擎.计算广告等领域证明了其划时代的价值,也引爆了整个人工智能生态向更大的领域延伸.由于深度学习的训练(training)和推断(inference)均需要大量的计算,人工智能界正在面临前所未有的算力挑战,而其始作俑者,是

英伟达的新GPU来了,FPGA和ASIC要扔掉吗?

雷锋网AI科技评论消息,美国时间5月10日,NVIDIA CEO黄仁勋在开发者大会GTC2017上发布新一代GPU架构Volta,首款核心为GV100,采用台积电12nm制程,最大亮点是成倍提升了推理性能,意欲在目前称霸机器学习训练场景的基础上,在推理场景也成为最佳商用选择. GV100 GPU 英伟达的新GPU来了,FPGA和ASIC要扔掉吗? 英伟达的新GPU来了,FPGA和ASIC要扔掉吗? 据雷锋网(公众号:雷锋网)了解,Volta架构GV100 GPU采用台积电(TSMC)12nm F

谷歌称人工智能芯片让他们省了15个数据中心!

谷歌的操作系统无疑是地球上最大的计算机网络,该系统由遍布四大洲15个地点的巨大数据中心组成.大约六年前,当该公司在Android手机上发布一种新的语音识别系统时,工程师们曾担心这个网络还不够大.这些工程师意识到,如果世界上所有的安卓手机用户每天使用谷歌语音搜索3分钟,那么该公司将需要更大规模的数据中心,其可以是目前的两倍. 当时,谷歌刚刚开始应用度神经网络.复杂的数学系统来提供语音识别服务.其通过分析海量数据,可以执行特定的任务.近年来,机器学习技术不仅改变了语音识别,还有图像识别.机器翻译.网

人工智能芯片再掀风浪 群雄逐鹿局面已成

人工智能芯片可应用范围广,如智能手机.医疗健康.金融.零售等,发展空间巨大.随着人工智能时代的到来,人工智能芯片更是迎来了大展身手的时机. 万物互联大背景下,未来几年后将有数以百亿的智能设备连接至互联网,来自思科报告显示,到2021年,在全球271亿连接设备中,物联网设备将占据连接主导地位.这一趋势无疑推动了物联网向各行各业渗透,赋能全社会,开启一个万物具有感知能力的智能社会,人们能够享受到更加智慧的生活. 而在这个大连接时代,以及万物具有感知的新时代中,具有人工智能要素的芯片需求广阔,依靠AI

人工智能芯片市场将出现竞争热潮

日前,视觉计算技术行业领先厂商Nvidia公司首席执行官黄仁勋在加利福尼亚州圣何塞举行的公司会议上宣布推出一款新芯片,旨在加速人工智能算法.并比喻说,对于Nvidia公司推出的新品,其他同行厂商现有的技术产品将会望其项背. Nvidia公司的利润和股价在过去几年中激增,因为该公司发明的图形处理器为游戏和图形制作提供了机器学习的最新突破.而随着对人工智能的投入,Nvidia公司目前面临着英特尔,谷歌,以及其他厂商在人工智能芯片方面的竞争. Nvidia公司首席执行官黄仁勋宣布推出一款用于人工智能的

人工智能芯片发展有望提速

9月3日,华为发布全球首款移动AI(人工智能)芯片,是业界首颗带有独立NPU专用硬件处理单元的手机芯片,标志着人工智能从云端走向终端.目前,人工智能产业链上的核心芯片.大数据.生物识别.物联网.安防等领域,国内上市公司均已有所突破,终端AI芯片将迎来加速发展期. 迎来加速发展期 华为消费者业务CEO余承东表示,人工智能在未来终端上的实现必须通过云端协同.端侧智能强大的感知能力是手机成为人的分身和助手的前提,拥有了大量实时.场景化.个性化的数据,在强劲持久的芯片处理能力支持下,终端就能具备较高的认

即将搭载人工智能芯片的华为Mate10,究竟会为业界带来什么?

随着华为旗舰机型Mate 10即将发布,科技媒体纷纷爆料,华为Mate10将首次在智能手机历史上,搭载一颗人工智能芯片.其实早在华为半年业绩发布会上,华为余承东就透露,预计将在今年秋季推出人工智能芯片,而根据目前最新的消息,这颗人工智能芯片极有可能就是搭载在麒麟970之中的寒武纪芯片. 当然,目前Mate 10的最终规格还没发布,具体还要期待10月16日的慕尼黑发布会,上述消息仅是我们的合理猜测.如果属实的话,意味着Mate 10将成为全球首款具备人工智能芯片的机型,这将会为业界带来怎样的冲击?

Interview with Alibaba Cloud Heterogeneous Computing Director: A Trio of Heterogeneous Computing: Domination by a Trio of GPU, FPGA, and ASIC Chips

Editor's Note: From October 11 to 14, 2017, The Computing Conference will be held once again in Hangzhou's Yunqi township (get your tickets now!). As one of the world's most influential technology expos, this conference will include brilliant lecture