中科视拓CTO山世光:如何用X数据驱动AI成长? | CCF-GAIR 2017

雷锋网AI科技评论按:7月7日,全球人工智能和机器人峰会(CCF-GAIR 2017)在深圳如期举办,由CCF中国计算机学会主办、雷锋网(公众号:雷锋网)与香港中文大学(深圳)承办的这次大会共聚集了来自全球30多位AI领域科学家、近300家AI明星企业。雷锋网最近将会陆续放出峰会上的精华内容,回馈给长期以来支持雷锋网的读者们!

本次带来中科视拓CTO,中科院计算所研究员山世光博士在GAIR 2017大会上的分享精华。

山世光,中科院计算所研究员、博导,基金委优青,CCF青年科学奖获得者,现任中科院智能信息处理重点实验室常务副主任,中科视拓创始人、董事长兼CTO。他的研究领域为计算机视觉和机器学习。已在国内外刊物和学术会议上发表论文200余篇,其中CCF

A类论文60余篇,论文被谷歌学术引用10000余次。曾应邀担任过ICCV,ACCV,ICPR,FG,ICASSP等国际会议的领域主席,现任IEEE,TIP,CVIU,PRL,Neurocomputing,FCS等国际学术刊物的编委。研究成果获2005年度国家科技进步二等奖,2015年度国家自然科学二等奖,CVPR2008
Best Student Poster Award Runner-up奖。

如何看待这次AI热潮?

谷歌AlphaGo与李世石的世纪之战,让人工智能(AI)这个话题再度火爆起来。山世光博士早在20年前就开始做AI领域中的计算机视觉技术研究,在这次GAIR大会分享中,他结合自己过去的科研经历和行业观察,分别从四个不同的角度分析,给出了他对此次AI热潮的一些看法:

从方法论角度看:过去几十年流行的人类专家知识驱动的AI方法论被数据驱动的AI方法论全面取代。这里的数据主要指有监督的大数据。人类智能的产生是不是也完全基于有监督的大数据学习而来尚不得而知。从这个意义上讲,计算智能和人类智能之间的差异也不得而知。

从学术角度来看:虽然有监督大数据驱动的方法论在某些领域已经构建出了超越人类智能的AI,但基于有监督大数据的深度学习是否构建机器智能时代充分且必要的基础性方法?他个人认为至少是不充分的,需要新的方法论。

从算法角度来看:主要得益于两个方法:一是深度学习,二是增强学习。增强学习被大家所熟知是因为AlphaGo在围棋上战胜了人类最强的棋手。但实际上增强学习在很多场景下是不能用的,至少目前在视觉和语音处理等任务中尚未得到有效的应用。而深度学习可类比人类学习方法里的归纳学习,却不适合演绎学习。深度学习是否可以广泛应用于推理类任务尚不得而知。

从做计算机视觉的角度来讲:包括智能视频监控、考勤门禁等在内的安防应用以及医疗读图、基于视觉的汽车辅助驾驶等都是计算机视觉技术落地的方向,商业化产品已经雨后春笋般涌上市场。

关于演讲主题中的X表示什么意思,山世光博士在接下来的演讲中给出了X数据的五个含义,分别是:第一,大数据;第二,小数据;第三,脏数据;第四,无监督数据;第五,是增广,通过增广获得更大的数据集。下面的分享实录中会有对各个含义的详细解读。

为什么要用X数据驱动?

山世光博士将深度学习算法、强大算力、大数据比作AI革命背后的“三驾马车”,而这“三驾马车“背后的现实问题是金钱投资,需要非常厉害的牛人做深度学习算法、搭建更加强大的计算力平台以及收集更多的数据。其中数据收集和标注的成本日趋昂贵,所以他们希望在这方面看看能不能做点什么。

关于SeetaVision视觉技术

人脸识别技术SeetaVision的多姿态人脸检测技术,是在标准人脸检测评测集FDDB上最好的方法之一。在100个误检的情况下,SeetaVision的检测率达到了92%,此外还研发了检测加速技术,从而可以在嵌入式设备上实现实时的多姿态人脸检测。第二个人脸核心技术是面部关键特征点的定位,SeetaVision实现了81个关键特征点的超实时检测与跟踪。SeetaVison人脸识别具体应用包括人证一致性验证,员工考勤与打卡、黑白名单目标人检测等。

手势识别:SeetaVision可以实现实时的手语翻译,就像语音识别一样,把1000常用词形成的手语句子翻译成自然语言文本。基于此,视拓目前已经和美的合作,将其应用于智能家居中。

情感计算:SeetaVision的基本表情识别率超过85%,基于普通摄像头的心率估计也非常接近医疗设备的检测结果。

视频结构化:面向智能视频监控类应用,SeetaVision实现了嵌入式设备上的实时人车跟踪,准确度超过85%。

无人机视觉:针对无人机地面目标检测任务,SeetaVision实现了高清视频中地面车辆等目标的实时检测、分类与跟踪。

山世光博士还表示,中科视拓的终极目标是让AI知人识面看世界,给每个AI装上智慧的眼睛,让它看清在跟谁交互,周围环境如何,以及正在发生什么事情。而面对目前市场上已有多家做人脸识别等视觉技术的创业公司,如何才能在竞争中脱颖而出,山世光博士表示,将SeetaVision的商业模式定位为“开源赋能“,走差异化竞争路线,重点关注与行业客户之间的深度合作。

在大会分享的最后,山世光博士对AI未来发展需要注意哪些问题做了一些总结,他认为:

其一,鲁棒性可能是AI和视觉智能一个最致命的问题。其二,AI的成长需要多模态协同,不能单靠视觉智能或语音智能等。其三,如何基于小数据甚至是零数据准确完成各类视觉任务,还需要大量的深入研究。

以下是山世光博士在CCF-GAIR 2017的现场实录,雷锋网做了不改动原意的编辑:

我今天报告的题目是《X数据驱动的Seeta平台与技术》,可能大家都在想X是什么,这里我们暂时认为X就是一个问号。在接下里的报告中,我会从X数据入手,来重点介绍一下我们所做的工作。

其实我们大家都非常深切的体会到,我们正在邂逅一场前所未有的人工智能技术革命和应用的井喷。在这样的一个状态下,它的背后是有“三驾马车”或者“三个引擎”,就是深度学习算法、强大算力以及大数据,这些因素的共同作用才产生了这一轮新的AI热潮。

我这次报告的题目为什么叫“X数据驱动”,主要从数据角度出发,来看对AI产业能做什么事。

这一轮人工智能的热潮,从方法论的角度来讲,主要是源自AI研究范式的变迁。即从人类专家知识驱动的方法论到数据驱动的方法论的变迁。我们指的数据,其实是特指有监督的大数据:一方面是数据量必须足够大,另一方面这些数据还必须是带有内容标签的。人类智能的本质同现在的计算智能之间的差异,在目前而言还是不得而知。因此我们非常有必要从学术角度来探讨,数据驱动或者有监督的大数据驱动这样一种方法论,是否会是我们构建整个机器智能时代的基础设施。

当然,在目前这种有监督大数据驱动的方法论条件下,在某些领域确实已经出现AI超越人类智能的情况。这一轮AI热潮,从算法角度,主要得益于两个东西:一是深度学习,二是增强学习。增强学习被大家熟知是因为AlphaGo在围棋上战胜了人类最强的棋手。实际上增强学习并不是放之四海皆可用的方法,它在很多场景下是不能用的,特别是在视觉和语音等场景下并没有得到非常有效的应用。因为它需要AI能够自动的判断对错,比如说下围棋或者一个游戏,做得好或者不好,算法是可以自动去判断好或者不好、对或者错的。像我们的视觉、听觉这样的一些问题,比如说做人脸识别,AI算法本身识别错了,它是不能够知道自己识别错了的,识别对了它自己也不知道,所以很难形成一个迭代的自我增强过程。如果是硬去迭代,很可能会学偏学傻,乃至走火入魔。

所以增强学习在这些问题上并没有得到非常好的应用。深度学习目前适合解决我称之为“好数据肥沃”的领域,而且通常只对应于人类学习方法里的归纳学习。然而,人类的学习除了归纳学习之外,还有演绎推理。针对演绎推理,深度学习则存在严重短板。举个演绎推理的例子,比如说《几何原本》,是欧几里德从5条公理推演出来的。想用深度学习做这类自动推演,目前来看是完全没有希望的。当然,这是一个很极端的例子,但我们在日常生活中是需要大量推理的,深度学习在这一点上,目前来看也没有太多可以有作为的地方。

李开复老师在过去一段时间多次提及,在未来10年可能人工智能会取代10种职业50%的工作。我不知道大家怎么去看,我个人觉得保姆可能还是很难取代的,也许医生更有可能会被取代。从我们做计算机视觉的角度来讲,医疗读图是一个很重要的方向。对于做人脸识别或者图像识别的人来说,保安则是我们更感兴趣的群体,在未来10年,也许不是50%,而是80%的保安,会被一些自动的系统所取代。比如说我们的一个企业客户,用我们的人脸识别技术做单位的门禁和考勤,在1万个员工的情况下,可以实现不需要员工卡自动做识别、开门和考勤的系统,我想可能未来真的不需要一个保安坐在那儿了。

我和我的学生们在去年8月,基于计算所在视觉信息处学习方面的研究成果做了一个公司,叫做中科视拓,形成了一个产学研联合体,一起开发SeetaVision技术。我们的目标是让AI能知人识面看世界,让每个AI都长上智慧的眼睛,让它看清它在跟谁交流、了解周围正在发生什么事情,以便智能地应对这些场景。

我们主要的底层技术,就是在机器学习特别是深度学习理论、方法与技术。基于这些机器学习的方法,在人脸识别、情感计算、视频结构化和无人机视觉等方面,我们有自己的一些布局。我们过去的积累包括在这些领域的竞赛中,取得一些最好的成绩,其中包括人脸识别、手势识别、行人检测、图像搜索等等任务。我们刚才也提到,业界已经有像商汤、Face++等等有很多前辈公司,比我们早走了多年。我们在商业模式上也希望不断探索新的路径。当前阶段,我们采取”开源赋能“的差异化做法与一些重点客户开展了深度合作。

所谓的开源,是指我们可以给B端客户提供源码级的引擎技术。更进一步的是赋能,我们可以提供生成这些引擎的引擎技术。通俗地讲,我们不但卖鸡蛋,还卖下蛋的鸡,这是完全不同的合作模式。去年8月中科视拓开源了Seetaface人脸识别引擎,它虽然不是业界最好的人脸技术,但提供了一个优秀的基准,从而显著地提升了业界基准水平,也为一些公司提供了参照。有很多客户把Seetaface代码用到产品中,并进而与我们建立了更深度的合作。

在这里我也展示我们的一些核心技术:

多视角人脸检测技术

在人脸检测方面实现多姿态的检测,在FDDB上是最好的方法之一。其实人脸检测大家都非常熟悉,就是我们把这个画面有多少个人脸找出来。FDDB也是在这个领域里面被广泛采用的标准评测,我们在100个误检时达到了接近93%的检测率。另外,我们还实现了很多加速的方法,实现人脸的快速检测,包括在一些嵌入式设备上实现实时的检测。

面部关键点定位技术

面部关键点定位技术,是指在检测到人脸的基础上,实现一面部关键点的定位。我们的技术可以定位80多个面部特征点,当然我们也可以定位更多,但数目并不是关键。我们已实现超实时的特征点定位,在相关的数据库中我们也取得了最好的成绩。基于这些技术,我们落地了一些人脸识别应用,包括1:1的人证比对、网纹身份证照片人脸验证、以及人脸考勤系统等。与简单人证比对相比,在公安的应用场景,身份证查验中心会把照片加一个网纹,再传回来,而我们则需要首先把网纹去掉,再跟现场人员比较看看是不是这个人。目前我们的算法是可以正确判断的。在人脸考勤方面,技术已经成功应用,可以实现1万员工的考勤和门禁,在误识率约为1%的情况下,可以达到95%以上的正确识别率。

情感计算与心率估计

此外我们公司还在情绪感知方面有一些积累,可以实现85%以上的表情识别率。SeetaVision还可以实现准确的心律估计,这里的心律估计是指通过摄像头拍摄人脸部视频来估计人的心跳次数。只要摄像条件好,即可准确估计。

手势识别与视频结构化分析

我们还有一些手势识别的技术,以及手语实时翻译技术。手语识别是指,用手语打一句话,把手语实时翻译成文本,我们目前已经和美的合作,实现对一些基本手势的准确识别,用于智能家居控制。

此外在视频结构化分析方面,我们也可以实现人车的跟踪,在TX1上做到准确度85%以上的实时检测。

无人机视觉技术

我们还有一个方向是在做无人机视觉,能够实现地面车辆目标检测,以及地面车辆的实时跟踪。左图是地面车辆目标检测。每个绿框都是我们检测出来的车辆。我们特意选了一个堵车的场景,在目标如此小且密集的情况下,人为识别都是有很多困难的,但我们的算法能够实现接近90%精度的检测。右边的视频是实现跟踪,能够实现对地面上车辆的实时跟踪。

下面我回到报告的主题上来,即X数据驱动,针对X是什么,我想讲几种不同的场景。

第一,X=大,就是大数据驱动的视觉引擎的设计。现在,无论大公司还是小公司,都是在拼命的收集数据,进行深度学习模型的优化和训练。我们在人脸方面有百万级人数的亿级人脸数据,每个人又进一步有很多不同的场景和照片。我们在车辆和行人方面也有千万量级的图像和视频,我们对这些数据做了大量的标注,如:人的头部、躯干和四肢的标注信息。在无人机视觉方面,我们大概三四个月时间,就积累了百万量级的无人机视觉数据,可以实现对车辆目标以及车辆类型的检测和估计。在大数据的条件下,类似于人的熟能生巧和见多识广,见得多你就可以积累出来非常多的经验。

第二,X=小,在很多场景下,我们人类获得智能的能力并没有依赖于大量的数据学习,反而是一些小数据。所以在小数据的情况下,如何使得我们的算法也能够有效果。

最通常的思路是做迁移学习,所谓迁移学习最简单的是做Finetune,我们把一个已经训练好的模型,再用小量的数据做调整和优化,使得它适应这些小数据所代表的应用场景。例如:我们在2015年参加感知年龄估计的竞赛并取得了亚军。我们采用的算法是首先在人脸识别的数据库里面,利用百万级的数据做训练,再用几万量级真实年龄的数据做Finetune,最后在竞赛方提供的感知年龄的测试数据集上,取得了非常好的效果。

在表情识别方面,我们在2014年参加了一个竞赛,因为没有大量的表情数据,因此,我们采用人脸识别的数据做训练,直接拿人脸识别的特征来做,最后也是取得第一名的成绩。可见我们很多的任务,特别是相关的任务,是可以运用相关领域的数据来实现迁移的。

另外一个例子,比如面部特征点定位,要用到在面部标注点的数据集。现在学术界或者工业界可能会有很多不同类型的数据,比如一个数据集可能是68个点、另外一个数据集是74个点,它们之间的定义是不一样的,如何把它合并起来,使它变大,从而形成更好的算法,也是一个很值得关注的方向。

我们的一个博士生就做了这样的一个算法,利用预测填补和深度回归的方式解决问题,其背后也是深度学习的方法以及一些适应性的调整。

另外一个例子,手机上会有越来越多的摄像头,这些摄像头有可能是彩色的、也有可能是黑白的、还有可能是深度的,还有可能是近红外的。这些摄像头采集的数据,如何实现共用,这也是一个非常值得研究的话题。比如说在RGB-D数据集不足的情况下,如何基于大量的RGB数据来完成跨模态的融合,以实现更好的结果。

首先通过不同模态的数据分别建立深度学习的模型,之后再通过共有的网络去实现它们的融合,再反馈回来调整每个模块的深度模型,最终可以实现不同模态数据之间的跨模态的比对以及融合利用。

这种方式其实也是在利用小数据和大数据的关系,在小数据条件下更好地学习算法模型。利用这样的一种方式,我们在去年2016CVPR上发布的模型,实现了彩色和深度信息之间的融合,乃至比对。这就是第二个X=小数据。

第三,X=脏,还有很多情况下是脏数据。所谓的脏数据,比如在百度图片搜索“成龙”,确实会反馈很多成龙的照片,但是也会有大量的不是成龙的照片。而我们又不想雇1000个人大量的数据把它标注出来,干脆就基于有噪声的数据实现机器学习。所以我们在今年提出具有“自纠错学习”能力的深度学习方法,在深度学习的过程中,一边去学习算法,一边去估计哪些样本的标签可能是错误的,我们把一些可能错误的标签修正过来,从而得到更好的算法。利用这种策略,我们发现,即使加了40%或者60%的错误标签,我们的算法也能够实现不错的深度学习效果。

X=脏,这个脏还可能有另外一层含义,比如说有遮挡的情况。我们也提出了一个算法,在这个任务里面,我们能够把面部的遮挡部分、脏的部分补出来,补出来之后再去实现感知。把这两个过程迭代起来,形成联合的学习,这个工作发表在去年的CVPR上面,也是取得了非常不错的效果。

第四,X还可能是无监督数据。所谓的无监督数据是指没有标签可以利用的数据。想象一个场景,比如我们手里面有大量东方人的有标签数据,但是有标签的黑人数据相对较少,而我们可以在网上找到大量的无标签的黑人数据,我们如何能够利用这些没有标签的数据进行识别,这是一个很重要的问题。因为只用东方人的数据做训练,去识别黑人效果会非常差,反过来也是一样,所以我们要进行模型的调整,以实现从东方人数据到无监督的黑人数据的迁移。我们这方面的工作发表在ICCV2015上面。

第五,X还可以是增广数据,即通过对已有少量数据进行修改的方式,来生成大量数据。人类有一种能力叫做举一反三,比如说给大家一张平面的照片,可能看到这张很帅的照片之后,你就会浮想联翩,怎么浮想呢?可能会想这个人从侧面看是什么样子,他笑起来是什么样子,他戴上眼镜会变成什么样子,我们具备这种能力。我们能不能让机器也有这样的能力,从一张照片增广出大量数据,用于学习。这里示例的是我们基于三维模型的方法做数据增广的效果,我们可以生成这位帅哥在不同视角条件下的照片。

完成这个任务,另外一种方法是采用这两年非常火的GAN方法。输入最左侧的照片,用GAN可以生成不同表情的照片。还可以有更加复杂的,比如说带上眼镜,加上胡子等等。当然这个也是有条件的,并不是说每张照片都可以做得这么好,基于GAN生成的人脸图像是不是能够用于提升算法,目前还是存疑的。

总结一下,X等于什么呢?大数据、小数据、无监督数据、脏数据、或者通过增广的方式,实现更大量数据的收集。其实还有一个非常重要的角度,就是类比人,人在很多时候都是自寻烦恼,当然不是自寻烦恼,是自寻数据。例如,在我们观察一个物体的时候,如果从一个角度不能全面观察,我们会移动来收集不同视角的数据,这种主动收集数据的能力,是现阶段AI系统升级为自主AI系统的必备能力,特别是对自主无人机和机器人。

此外,从整个视觉智能的宏观角度来说,我们现在已经非常清晰的看到,鲁棒性是视觉智能乃至整个AI的核心问题之一,即如何能够实现万无一失。其实,现在像人脸识别的场景下,有些情况下我们已经做到万无一失,但是仍有很多实际应用的场景,例如智能驾驶等领域,我们需要的是百万无一失,意味着我们需要百万分之一的错误率。在这样的条件下,才能够有更加广泛的应用。在这种情况下,是不是仅有大数据就足够,这一点还存有疑问。

我们类比人类的发育成长过程,人类具备两个特性:一是多模态数据协同;二是基于小样本的自主学习。

多模态数据协同

人类的多模态数据协同是指什么呢?对于人来说,除了眼睛之外,我们有很多其它信息来对我们的智力发育提供帮助,包括语音、姿态、动作、以及背后有大量的知识库作支撑。因此,人本身是需要一个多模态系统协同工作的鲁棒AI,这带给我们一个思路,AI的成长和发育也需要多模态。

基于小样本的自主学习

对人的智能发育来说,我们生来就有“大脑”,有所谓的智商,我们从一出生的时候,神经系统基本上发育的差不多,到3岁就基本发育完毕。也就是说,人类作为一种高级生物,经过数百万年甚至更长的时间进化出了这样的一个”先天脑“模型。假设我们拿深度学习作为一个模型来类比,相当于人在出生的时候,祖先已经帮我们利用大量数据训练出了一个深度学习模型。

在后期的成长过程中,其实是对这个深度模型基于小数据的不断调整和适应性的优化。所以说,我们认为AI发育的非常重要的一点,就是如何基于小数据甚至是0数据完成智能的发育和后天的学习。比如说我跟大家描述一下某个人长成什么样子,你并没有见过这个人,你并没有见过这个人的照片,我们称为0数据,你如何能够识别这个人,是对AI的一个挑战。类似这样的应用场景,将来会有非常多的研究空间。

综上,从人类智能的角度出发来看AI,AI要想在更多的场景下实现强大的视觉能力,还需要基于小数据乃至0数据情况下的自主学习能力、以及多模态的数据协同能力,这两种能力为AI的发育提供了可能性,也为AI真正理解世界并服务人类提供了可能

本文作者:杨文

本文转自雷锋网禁止二次转载,原文链接

时间: 2024-10-28 06:57:26

中科视拓CTO山世光:如何用X数据驱动AI成长? | CCF-GAIR 2017的相关文章

演讲实录丨山世光 闲话AI时代的视觉智能

小编按 10月22日,来自国内外人工智能专家及行业领袖齐聚世界机器人大会,在其专题论坛2016中国智能机器人产业高峰论坛上展开一场别开生面的机器人和人工智能主题演讲,并带来精彩互动交流. 了解到还有很多粉丝不能到场参会,小编特地整理了参会嘉宾中科视拓董事长.计算机视觉专家山世光的报告速记,让大家一睹为快~ 本文根据速记进行整理 闲话AI时代的视觉智能 山世光 中科视拓董事长.计算机视觉专家 山世光:非常高兴今天有机会到这样一个论坛上来分享一下关于在人工智能时代的计算机视觉发展情况.今天我们这个论

大牛讲堂 | 山世光博士:自动驾驶系统中的目标检测技术

雷锋网按:作者山世光博士,中科院计算所研究员.博导,主要从事计算机视觉.模式识别.机器学习等相关研究工作.迄今已发表CCF A类论文50余篇,全部论文被Google Scholar引用9000余次.现任IEEE TIP,TIPNeurocomputing和PRL等国际学术刊物的编委(AE).研究成果曾获2005年度国家科技进步二等奖和2015年度国家自然科学奖二等奖. 本文中,山世光博士主要给我们分享梳理了物体检测技术的近期进展.  1.  Viola-Jones人脸检测器   物体检测在整个计

CNCC 2016 | 山世光:深度化的人脸检测与识别技术—进展与展望

雷锋网(公众号:雷锋网)按:本文根据山世光在 CNCC 2016 可视媒体计算论坛上所做的报告<深度化的人脸检测与识别技术:进展与问题>编辑整理而来,在未改变原意的基础上略有删减. 山世光,中科院计算所研究员,中科院智能信息处理重点实验室常务副主任.主要从事计算机视觉.模式识别.机器学习等相关研究工作.迄今已发表CCF A类论文50余篇,全部论文被Google Scholar引用9000余次.曾应邀担任过ICCV,ACCV,ICPR,FG等多个国际会议的领域主席(Area Chair).现任I

芮勇出任联想CTO,阿里巴巴获CIKM Cup冠军|AI科技评论周刊

本周我们感到一个明显的趋势是AI在各个领域灵开始顺水推舟的落地--一个典型的例子就是学术界的比赛也开始跟应用场景紧密结合,CIKM Cup 2016冠军获得者阿里巴巴就是靠电商搜索一句登顶的,那AI在各个领域开始落地还带来了哪些更大的震动呢?我们从AI开始落地的7个领域说起. 人工智能为什么率先应用在这七个领域? 10月中旬,乌镇智库联合网易科技.网易智能发布了<乌镇指数:全球人工智能发展报告(2016)>系列报告.报告介绍了人工智能的一系列热点问题,包括企业分布规模.投融资情况.研究成果.细

微软爱开源?| 启路CTO朱永光为你讲解微软开源的那些事

编者按:随着微软的股价节节攀升,同时在最近的硬件大战中力克老对手苹果,大家熟知的那个微软又回到了大家的视野,本文给很多不熟悉微软开源技术的朋友普及一下微软最近几年在开源方面所做的努力和成效,毕竟很多人对微软的技术还停留在10年前的认知上,自从微软新CEO上任后,进行了一系列的大刀阔斧的改革,其中拥抱Linux是浓墨重彩的一笔.本文选自于启路CTO朱永光大神在中生代十月十城成都的分享,朱老师在讲解干货的同时,也不忘现场写代码演示如何搭建简单的Hello World,欢迎大家观看视频! 过去几年中微

贾跃亭:乐视TV将取代蓝光DVD

蓝光DVD问世四年以来,始终面临曲高和寡的尴尬.对此,国内A股首家上市的视频网站乐视网(300104,股吧)董事长贾跃亭指出,乐视TV云视频超清机拥有蓝光的高清品质,具有内容和价格优势.他强调,随着 三网融合政策的推进,乐视TV云视频超清播放机将彻底取代蓝光DVD,让家庭影院直接进入超清影视时代,必将引领一轮"墙"上革命. 云视频超清机 取代蓝光DVD 6月8日,蓝光光盘协会和来自硬件.软件.渠道商.行业咨询机构的代表等共100多人,出席了北京"高清体验.尽在蓝光2011 B

佘山世茂纳米魔幻城与途家网、携程网签约

东方网记者刘沅3月24日报道:上海世茂佘山纳米魔幻城近日与途家网.携程网正式签约. 据悉,途家网与携程网将携手把世茂佘山纳米魔幻城打造成为五星级的精装城堡,并为其提供专业的市场监控.经营报告和增值营销建议,实现未来业主闲置房屋的灵活增值.同时,为业主更好地管理异地不动产.使旅行者享受家一般的旅途也成为了世茂佘山纳米魔幻城的下一个目标. 随着深坑酒店的即将动工,世茂佘山纳米假日城的落成,世茂佘山纳米魔幻城将在不久的将来成为上海新的地标性建筑及著名旅游景点.

人脸识别进入“超级独角兽时代”:旷视、商汤、依图等共论计算机视觉

旷视科技昨天夜间宣布了金额高达4.6亿美元的C轮融资,引起热议. 2017年,中国计算机视觉初创公司屡创纪录.前有商汤4.1亿,后有旷视4.6亿,下一个融资会突破5亿甚至10亿美元吗? 日期,在第二届微软亚洲研究院院友会年度大会上,计算机视觉的大佬们聚在一起,微软全球执行副总裁.微软人工智能及微软研究事业部负责人沈向洋主持,来自商汤.旷视.依图等各家5位微软亚洲研究院院友坐到了一起-- 商汤科技联合创始人兼CEO徐立,旷视科技Face++首席科学家兼旷视研究院院长孙剑,中科院计算所教授.中科视拓

从微软亚洲研究院到旷视科技,我是如何在大公司和创业公司做研究的? | CCF-ADL 火热报名

他被美国权威技术期刊 Technology Review 评选为" 2010 全球 35 岁以下杰出青年创新者": 他在国际顶级学术会议和期刊上发表的论文总数超过 100 篇,被 Google Scholar 引用超过两万次,两次获得 CVPR Best Paper Award (2009, 2016): 他带领的团队曾获得图像识别国际大赛五项冠军(ImageNet分类,检测和定位,MS COCO检测和分割): 他曾加入微软亚洲研究院(Microsoft Research Asia),