漫谈深度学习 这个领域有点火!

深度学习(deep learning),无疑是IT界近两年比较流行的一个热词。它是什么意思呢?理解起来,与人工智能、机器学习比较接近,目的是想让计算机能够像人脑一样智能地识别图片、语音……,因此无论是深度学习还是人工智能都是实现目标的手段。 

为了更好地理解本文,这里再多做一点解释,人脑认知事物的过程其实是分层的,每一层都会识别出一定的特征,然后不断地向上汇聚,最终识别出这个事物是什么。当然,整个过程的层级很多,而且识别过程是极其快速的。现在的深度学习、人工智能就是要计算机模拟人脑对于事物的识别过程。 

那问题来了,得多么强大的机器才能达成这样的目的?可能你对这个没概念,这里提供一些参考数据。在2012年6月,《纽约时报》披露的Google Brain项目中,著名的斯坦福大学的机器学习教授Andrew Ng和大规模计算机系统方面的世界顶尖专家JeffDean用16000个CPU Core的并行计算平台训练一种称为“深度神经网络”(DNN,Deep Neural Networks)的机器学习模型,在语音识别和图像识别等领域获得了巨大的成功。 

16000个CPU Core,很多吗?其实也不算多,现全球最快的超级计算机天河2号的CPU核数是312万个。这么大体量的超级计算机,用来干什么?用途很多,上述的图像、语音识别只是其中的一部分,更多像气象预报、地质勘探等才是它的主业,这就更多到了传统HPC(高性能计算)的范畴。

说到底,无论是之前的气象预报、地质勘探,还是现在所提的人工智能、深度学习,都属于HPC的范畴。只不过前者由来已久,后者虽还并不为太多人所知,但发展趋势无疑是明显的。今年两会上,百度董事长李彦宏就提出了“中国大脑”计划,并给出四个方面的建议。一是以智能人机交互、大数据分析预测、自动驾驶、智能医疗诊断、智能无人飞机、军事和民用机器人技术等为重要研究领域;二是支持有能力的企业搭建人工智能基础资源和公共服务平台;三是改变传统“相马模式”的科研机制,引入“赛马模式”的市场机制;四是在人工智能技术成果的转化与共享方面,充分引入市场机制。 

如果以阴谋论的角度来看,李彦宏这样的提案完全是在为百度的下一步铺路。为什么这么说,因为百度在深度学习、人工智能方面已经有了很多实质性的进展。在3月中旬由NVIDIA主板的GTC2015大会上,来自百度美国研发中心的专家分享了其在深度学习、人工智能方面的一些成果、心得,而这些成果其实已经在百度得到了应用,涵盖图片识别、语音识别等多个层面。而在谈到为什么在美国建立研发中心时,百度副总裁兼任百度美国研发中心总经理郑子斌直言不讳,人才是很重要的一个原因。这也正是国内环境所缺乏的。

伴随深度学习、人工智能的进一步发展,其实也带来了新的问题。众所周知,CPU的强项在于数据处理,而面对越来越多的图片、语音等,该怎么办?这倒也不是一个新的课题,因为在过去的HPC应用中,已经有大量使用GPU的成功经验。所不同的是本届GTC大会,NVIDIA将深度学习作为一个重点课题进行了讲解,而这也预示着其下一步的努力方向。

在大会主题演讲阶段,NVIDIA CEO黄仁勋也带来了最新产品与前代产品的对比结果,如果借助初代Titan X和CUDA技术的力量,时间就可以大幅减少至一周。而最新的Titan X和改进后的cuDNN平台,更是可以将时间进一步削减到三天!

NVIDIA深度学习合作伙伴一览,其中不乏我们所熟悉的知名厂商,包括Adobe、百度、阿里巴巴、Facebook、Google、Yahoo!、IBM、爱奇艺、搜狗等。

除此之外,为了帮助人们更好地进行深度学习方面的研究、或者开发基于神经网络的应用,NVIDIA还宣布了名为“DIGITS”的开发框架、以及被称之“DIGITS DevBox”的开发系统——后者包括了四路Titan X显卡,并且预装了常用的深度学习应用程序。

原文发布时间为:2015年03月31日

时间: 2024-09-23 02:34:21

漫谈深度学习 这个领域有点火!的相关文章

漫谈深度学习在Super Resolution(超分辨率)领域上的应用

接触到一个挺好玩的领域--Super Resolution(SR),这个方向做的事情是给你一张低分辨率的小图(Low Resolution,LR),你通过算法将这张LR放大成一张高分辨率的大图(High Resolution,HR).这个事情乍一听挺简单的,普通的插值算法即可胜任,其实大有玄机,主要的难点在于细节的恢复,如下两张图,第一张图是原图,第二张图是将原图进行3倍下采样后,用Bicubic插值算法[1]进行SR恢复的图像,从图像整体来看,第二张图比第一张图要显得糊一些,如果将蝴蝶的翅膀纹

在深度学习这个领域 浪潮也是够用心的!

美国硅谷时间4月5日,一年一度的NVIDIA GPU技术大会2016(GTC 2016)正式召开.在本次大会上,浪潮正式发布了新一代深度学习计算框架Caffe-MPI,并开源公布所有代码,以方便深度学习用户构建适合自身需求的解决方案. 据浪潮HPC应用研发经理张清介绍,相较去年GTC发布的上一个版本,此次发布的新一代Caffe-MPI版本集群并行扩展性能更强,并增加了对cuDNN库的支持.实测数据表明,新版本在4节点下16卡的性能较单卡提升13倍(上一版本的实测数据为8节点提升10.7倍). 可

深度学习必备手册(下)

更多深度文章,请关注云计算频道:https://yq.aliyun.com/cloud 请收下这份关于人工智能的根目录--博客整理系列(一) 关于数据科学的那些事--博客整理系列(二) 机器学习必备手册--博客整理系列(三) 扩展眼界的都在这--博客整理系列(四) 深度学习必备手册(上)--博客整理系列(五) 深度学习的概念源于人工神经网络的研究,如果追溯深度学习的概念还是要回到2006年Hinton那篇论文,基于深信度网(DNB)提出非监督贪心逐层训练算法,未解决深层结构相关的优化难题出现的论

深度学习大神Yoshua Bengio经典前瞻演讲,帮你打通深度学习的任督二脉(上)

本文联合编译:Blake.高斐 雷锋网注:Yoshua Bengio教授是机器学习大神之一,尤其是在深度学习这个领域,他也是人工智能领域中经典之作<Learning Deep Architectures for AI>的作者.Yoshua Bengio连同Geoff Hinton老先生以及 Yann LeCun教授一起造就了2006年始的深度学习复兴.他的研究工作主要聚焦在高级机器学习方面,致力于用其解决人工智能问题.目前他是仅存的几个仍然全身心投入在学术界的深度学习教授之一(蒙特利尔大学),

2016深度学习统治人工智能?深度学习十大框架

2015 年结束了,是时候看看 2016 年的技术趋势,尤其是关于深度学习方面.新智元在 2015 年底发过一篇文章<深度学习会让机器学习工程师失业吗?>,引起很大的反响.的确,过去一年的时间里,深度学习正在改变越来越多的人工智能领域.Google DeepMind 工程师 Jack Rae 预测说,过去被视为对于中型到大型数据集来说最佳的预测算法的那些模型(比如说提升决策树(Boosted Decision Trees)和随机森林)将会变得无人问津. 深度学习,或者更宽泛地说--使用联结主义

CNCC 人物 | 深度学习处理器领军人物 —— 陈云霁

陈云霁,男,1983 年生,江西南昌人,中国科学院计算技术研究所研究员,博士生导师,CCF 会员,曾获 2014 年度"CCF青年科学家奖".同时,他担任了中国科学院脑科学卓越中心特聘研究员,以及中国科学院大学岗位教授.目前他带领其实验室,研制寒武纪系列深度学习处理器.他在包括 ISCA.HPCA.MICRO.ASPLOS.ICSE.ISSCC.Hot Chips.IJCAI.FPGA.SPAA.IEEE Micro 以及 8 种 IEEE/ACM Trans. 在内的学术会议及期刊上

简单读懂人工智能:机器学习与深度学习是什么关系

引言:随着AlphaGo战胜李世石,人工智能和深度学习这些概念已经成为一个非常火的话题.人工智能.机器学习与深度学习这几个关键词时常出现在媒体新闻中,并错误地被认为是等同的概念.本文将介绍人工智能.机器学习以及深度学习的概念,并着重解析它们之间的关系.本文将从不同领域需要解决的问题入手,依次介绍这些领域的基本概念以及解决领域内问题的主要思路. 本文选自<Tensorflow:实战Google深度学习框架>. 从计算机发明之初,人们就希望它能够帮助甚至代替人类完成重复性劳作.利用巨大的存储空间和

寻找下一款Prisma APP:深度学习在图像处理中的应用探讨

在9月23日到9月24日的MDCC 2016年中国移动者开发大会"人工智能与机器人"专场中,阿里云技术专家周昌进行了题为<寻找下一款Prisma APP:深度学习在图像处理中的应用探讨>的演讲.演讲中,他主要介绍深度学习在图像处理领域中的应用,主要内容包括:传统的图像处理:如超分辨.灰度图彩色化.2D/3D转换等:图像/视频风格化:图像生成. 以下是现场分享整理. 图像处理类过程主要分为三步,包括图像增强.图像变换.图像生成.图像增强是指从图像到图像:图像变换是指从图像到另

【深度学习框架大PK】褚晓文教授:五大深度学习框架三类神经网络全面测评(23PPT)

香港浸会大学褚晓文教授团队在2016年推出深度学习工具评测的研究报告,并在2017年年初发布更新,引起广泛关注.见新智元报道< 基准评测 TensorFlow.Caffe.CNTK.MXNet.Torch 在三类流行深度神经网络上的表现(论文)>,2017年初版本的评测的主要发现可概括如下: 总体上,多核CPU的性能并无很好的可扩展性.在很多实验结果中,使用16核CPU的性能仅比使用4核或8核稍好.TensorFlow在CPU环境有相对较好的可扩展性. 仅用一块GPU卡的话,FCN上Caffe