继 OpenAI 之后,DeepMind 开源深度学习训练平台 DeepMind Lab

编者按:今年四月,由马斯克和知名风投专家 Peter Thiel、Y Combinator 创始人 Sam Altman 共同创立的 AI 研究组织对外开放了其 AI 训练平台 OpenAI Gym。近日,该组织宣布还将开源测试和训练 AI 通用能力的平台 Universe,届时 Universe 将提供 1000 多种不同的游戏和训练测试环境。今天,据彭博社消息,谷歌 DeepMind 实验室也将向大众及其他开发者开放其用于众多实验的迷宫类游戏平台

DeepMind 宣布,将把这一 AI 训练环境的整个源代码发布至开源社区 GitHub,并将其名称由 Labyrinth 更改为 DeepMind Lab。届时,所有开发者都能下载源代码并对其进行个性化设置,以此训练和测试原有的 AI 系统。

DeepMind 的这一举动又一次证明了该实验室对研究成果的开放态度。该公司上个月才宣布与动视暴雪 ( Activision Blizzard ) 联手将视频游戏《星际争霸 II 》转换为一个测试平台,以便所有 AI 研究人员都有机会制作出这款复杂游戏的人工智能系统。

DeepMind 的联合创始人之一 Shane Legg 表示,开放 DeepMind Lab 代码会让其他研究人员意识到它本身是否能被复制,研究人员可以在 DeepMind 的测试中评估他们自己的 AI 系统的表现。Shane Legg 说,“如果其他研究人员有兴趣的话,可以试试看会不会打败我们。”

对于 DeepMind 开放 DeepMind Lab 的行为,有人认为是为了与 OpenAI 展开竞争,也有人表示可能是因为谷歌一直被指责对自己的 AI 成果过于保护。 Legg 否认了这些说法,“一直以来,我们在机器学习上的研究都非常开放。我们每年发表的研究论文多达 100 篇,也曾对多个自有的 AI 智能体(Agent)进行了开源。”

DeepMind 训练 AI 玩迷宫游戏

谷歌 DeepMind 实验室凭借击败了世界围棋冠军李世石的阿尔法狗 AlphaGo 而成名,这一事件被认为是计算机科学领域的一大突破。虽然 AlphaGo 并非在 DeepMind Lab 平台上接受训练,但是谷歌母公司 Alphabet 计划将 DeepMind Lab 用到多个前沿项目当中。在这些项目里,AI 系统可以感知、记忆和规划。其中就包括最近的一项实验,研究人员在训练 AI 智能体(Agent)在游戏环境中寻找迷宫里散落的数字苹果,由于 DeepMind Lab 的帮助,训练时间大大减少了。

 Legg 表示,DeepMind Lab 比其他的 AI 训练环境要出色,因为其游戏环境非常复杂。DeepMind Lab以第一视角通过模拟智能体的眼睛进行观察,并且以 3D 的形式移动。据 Legg 透露,DeepMind Lab 的AI 智能体可以向任一方向移动和观测,这是其他 AI 训练测试平台做不到的。

Via bloomberg

【招聘】雷锋网(公众号:雷锋网)坚持在人工智能、无人驾驶、VR/AR、Fintech、未来医疗等领域第一时间提供海外科技动态与资讯。我们需要若干关注国际新闻、具有一定的科技新闻选题能力,翻译及写作能力优良的外翻编辑加入。工作地点深圳。简历投递至 guoyixin@leiphone.com 。

相关文章:

Yann LeCun、Jeff Dean频繁亮相普及人工智能知识,全民AI时代来临|AI科技评论周刊

OPEN AI LAB,这个实验室如何加速人工智能的“进化”? | 深度

本文作者:刘子榆

本文转自雷锋网禁止二次转载,原文链接

时间: 2024-11-01 01:11:25

继 OpenAI 之后,DeepMind 开源深度学习训练平台 DeepMind Lab的相关文章

GitHub 上 57 款最流行的开源深度学习项目

GitHub 上 57 款最流行的开源深度学习项目 本文整理了 GitHub 上最流行的 57 款深度学习项目(按 stars 排名).最后更新:2016.08.09 1.TensorFlow 使用数据流图计算可扩展机器学习问题 TensorFlow 是谷歌的第二代机器学习系统,按照谷歌所说,在某些基准测试中,TensorFlow 的表现比第一代的 DistBelief 快了2倍. TensorFlow 内建深度学习的扩展支持,任何能够用计算流图形来表达的计算,都可以使用 TensorFlow.

深度学习训练,选择P100就对了

1.背景 去年4月,NVIDIA推出了Tesla P100加速卡,速度是NVIDIA之前高端系统的12倍.同年9月的GTC China 2016大会,NVIDIA又发布了Tesla P4.P40两款深度学习芯片.Tesla P100主攻学习和训练任务,而Tesla P4&P40主要负责图像.文字和语音识别. 同为Pascal架构且运算能力接近的P100和P40常常被拿来对比,单看Spec上运算能力,似乎P40比P100的深度学习性能更好,但实际上呢?本文就通过使用NVCaffe.MXNet.Te

十个值得一试的开源深度学习框架

本周早些时候Google开源了TensorFlow(GitHub),此举在深度学习领域影响巨大,因为Google在人工智能领域的研发成绩斐然,有着雄厚的人才储备,而且Google自己的Gmail和搜索引擎都在使用自行研发的深度学习工具. 无疑,来自Google军火库的TensorFlow必然是开源深度学习软件中的明星产品,登陆GitHub当天就成为最受关注的项目,当周获得评星数就轻松超过1万个. 对于希望在应用中整合深度学习功能的开发者来说,GitHub上其实还有很多不错的开源项目值得关注,首先

10 个值得一试的开源深度学习框架

本周早些时候 Google 开源了 TensorFlow(GitHub),此举在深度学习领域影响巨大,因为 Google 在人工智能领域的研发成绩斐然,有着雄厚的人才储备,而且 Google 自己的 Gmail 和搜索引擎都在使用自行研发的深度学习工具. 无疑,来自 Google 军火库的 TensorFlow 必然是开源深度学习软件中的明星产品,登陆 GitHub 当天就成为最受关注的项目,当周获得评星数就轻松超过 1 万个. 对于希望在应用中整合深度学习功能的开发者来说,GitHub 上其实

开源深度学习库BigDL在阿里云E-MapReduce上的实践

近些年来机器学习中的子领域深度学习成为一个热门的话题,特别是在围棋领域,谷歌的AlphaGo也使用了深度学习的技术. 在大数据领域,Spark MLlib是一个很流行的机器学习算法库,如果你想用Spark来做深度学习训练,MLlib还无法很好的支持.本文要介绍Intel开源的深度学习框架BigDL,他也是在Spark上的一个算法库,提供了全面的深度学习算法支持,包括数值计算(Tensor)和高阶神经网络等. 因为BigDL是在Spark上运行的,借助Spark平台的分布式扩展性,可以方便的扩展到

谷歌开源深度学习系统TensorFlow 的图片文字说明模型

谷歌开源深度学习系统TensorFlow 的图片文字说明模型 责任编辑:editor007 作者:aiko |  2016-09-23 22:27:27 本文摘自:36kr   今天,谷歌宣布开源图片文字说明模型 Show and Tell,该模型具有自动生成图片文字说明的功能,准确率达 93.9%. 谷歌于 2014 年发表论文首次介绍了 Show and Tell 这一系统模型,在 2015 年又对其进行了内容更新,对相关技术做了更加准确的改进.之后,谷歌一直在完善这一技术,最终作为谷歌 T

Facebook 开源深度学习框架 Torchnet

Facebook开源深度学习框架Torchnet,加快A.I研究步伐 今天,在新发布的一篇学术报告中,Facebook 详细介绍了新的人工智能开源软件 Torchnet,用于简化深度学习. 深度学习是当下一种时髦的学习方式,涉及到培训人工神经网络处理大量的数据,如图片,然后让神经网络做出新数据的预测.与其建立一个全新的深度学习框架, Facebook 选择的是在 Torch 上编译一个开源库,Facebook 先前也曾致力于此. "这 使得它很容易实现完全隐藏 I/O(输入 / 输出)成本功能,

用微信控制深度学习训练的Keras插件 - #Geek Time

" 天清 PaperWeekly 交流二群群友 关注音乐生成和量化交易 创意来源 深度学习训练是一个非常耗时.枯燥的过程:一次训练少则几个小时,多则数天,而且中途能人为干预的机会更是少之又少,在大部分时间里能做的只有等待. 不少人都有这样强迫症,脚本开始运行后会不停的看准确率和 loss,就像像球迷看球赛.股民盯报价一样刺激.一般来说,想要监控深度学习训练,只能使用 ssh 或者 Tensorboard.一旦需要外出,只能通过手机监控深度学习,操作十分麻烦,于是只能无奈地守在电脑前空耗生命. 我

NVIDIA令深度学习训练性能翻一番

NVIDIA发布了其 GPU 加速深度学习软件的更新版本,这些软件将令深度学习训练的性能翻一番. 新软件将让数据科学家和研究人员能够通过更快的模型训练和更复杂的模型设计来创造更准确的神经网络,从而加速其深度学习项目和产品的开发工作. NVIDIA DIGITS  深度学习 GPU 训练系统第 2 版 (DIGITS 2) 和 NVIDIA CUDA 深度神经网络库第 3 版 (cuDNN 3) 可提供大幅提升的性能和全新的功能. 对数据科学家来说,DIGITS 2 现在能够在多颗高性能 GPU