DeepMind提出快速调参新算法PBT,适用GAN训练(附论文)

从围棋到Atari游戏到图像识别和语言翻译,神经网络在各个领域都取得了巨大的成功。但是经常容易被忽视的是,神经网络在某个特定应用中的成功通常取决于在研究初始时所做的一系列选择,包括选择要使用的网络类型以及用于训练的数据和方法。目前,这些选择(被称作超参数)是通过经验、随机搜索或计算密集型的搜索过程来实现的。

DeepMind在最近的一篇论文《基于群体的神经网络训练》(Population Based Training of Neural Networks中,提出了一种新的训练神经网络的方法,使得实验者能够快速地为任务选择最佳的超参数集合和模型。这种技术被称为基于群体的训练(Population Based Training,PBT),它同时训练和优化一系列的网络,从而快速找到最优的设置。最重要的是,这种方法不会增加计算开销,可以像传统技术一样快速地完成,并且很容易集成到现有的机器学习流程中。

这项技术是两种最常用的超参数优化方法的结合:随机搜索和手动调优。在随机搜索中,神经网络群体(population)被并行地独立训练,在训练结束时,选择性能最优的模型。通常情况下,这意味着只有群体的一小部分会得到良好的超参数训练,更多的部分得到不好的超参数训练,浪费计算资源。

图:超参数的随机搜索,其中许多超参数是并行但独立地尝试的。一些超参数会导致性能良好的模型,但是其他的不会

通过手动调优,研究人员必须猜测哪些是最好的超参数,使用它们来训练模型,然后对性能进行评估。这个过程一遍遍地重复,直到研究人员对网络的性能感到满意为止。尽管这可能会带来更好的性能,但缺点是需要很长时间,有时需要几周甚至几个月才能找到完美的设置。虽然有一些方法可以自动化这个过程,例如贝叶斯优化,但是仍然需要很长的时间,并且需要大量的连续训练才能找到最好的超参数。

图:手动调优和贝叶斯优化等方法通过观察许多连续运行的训练来改变超参数,使得这些方法速度慢

PBT,就像随机搜索,一开始是以随机的超参数并行地训练许多神经网络。但是,这些网络不是独立的,而是使用来自群体(population)中其余部分的信息来调优超参数,并且将计算资源引导到有希望的模型。这是从遗传算法中获得启发的,在遗传算法中,population中的每个成员(被称为worker)都可以利用其他成员的信息。例如,一个worker可以从一个性能更好的worker中拷贝模型参数。它也可以通过随机改变当前的值来探索新的超参数。

随着神经网络population的训练继续进行,这种开发和探索的过程也周期性地进行,确保population中所有的worker都有一个良好的基础性能水平,并且一直不断地探索新的超参数。这意味着PBT可以快速利用良好的超参数,可以将更多训练时间分配给有希望的模型,并且,关键的是,可以在整个训练过程中调整超参数值,从而自动学习最佳配置。

图:基于群体的神经网络训练初始时就像随机搜索一样,但允许worker利用其他worker的部分结果,并在训练过程中探索新的超参数

我们的实验表明,PBT在众多任务和领域都非常有效。例如,我们在一系列挑战性的强化学习问题,用当前最优的方法在DeepMind Lab、Atari和星际争霸2中严格地测试了这个算法。在所有情况下,PBT训练稳定,快速地找到好的超参数,并且提供的结果超出了state-of-the-art的基线结果。

我们还发现PBT对于训练生成对抗网络(GAN)也有效,而众所周知GAN的调优很难。具体来说,我们使用PBT框架来最大化Inception Score(这是衡量视觉保真度的一个指标),从6.45提高到6.9。

我们还把它应用到谷歌最先进的机器翻译神经网络中,这些神经网络通常都是经过精心的手工调优超参数schedule进行训练,需要数月的时间才能完善。使用PBT,我们可以自动找到达到甚至超过现有性能的超参数schedule,但是不需要进行任何调优,同时通常只需要进行一次训练。

图:在CIFAR-10和Feudal Network(FuN)对“吃豆小姐”(Ms Pacman)游戏训练GAN的过程中population的演化过程。粉色的点代表最初的智能体,蓝色代表最终的智能体。

DeepMind认为,这项技术潜力很大。他们还发现PBT对于训练引入新的超参数的新算法和神经网络架构特别有用。随着这个过程的不断改进,PBT有望寻找和开发更复杂、更强大的神经网络模型。

论文:Population Based Training of Neural Networks

作者:Max Jaderberg,Valentin Dalibard,Simon Osindero,Wojciech M. Czarnecki,Jeff Donahue,Ali Razavi,Oriol Vinyals,Tim Green,Iain Dunning,Karen Simonyan,Chrisantha Fernando,Koray Kavukcuoglu

摘要

神经网络在现代机器学习领域占据主导地位,但它们的训练和成功仍然受到超参数经验选择的敏感性限制,例如模型架构、损失函数和优化算法。在这项工作中,我们提出基于群体的训练(Population Based Training ,PBT),这是一种简单的异步优化算法,能够有效地利用固定的计算预算来联合优化模型群体(a population of models)和它们的超参数,以最大限度地提高性能。更重要的是,PBT发现一个超参数设置的schedule,而不是遵循通常的次优策略来试图找到一个固定的集合以用于整个训练过程。

通过对典型的分布式超参数训练框架的小修改,我们的方法可以对模型进行强健、可靠的训练。通过对一系列超参数的优化,我们证明了PBT在深度强化学习问题上的有效性,显示了更快的时钟收敛速度和更高的最终性能。此外,我们还证明,同样的方法可以应用到机器翻译的监督学习中,利用PBT最大限度地提高BLEU score,并且也可应用于训练生成对抗网络(GAN),以最大化生成图像的Inception score。在所有情况下,PBT都能自动找到超参数的schedule和模型选择,从而获得稳定的训练和更好的最终性能。

原文发布时间为:2017-11-28

本文作者:马文

原文链接:DeepMind提出快速调参新算法PBT,适用GAN训练(附论文)

时间: 2024-11-10 09:34:14

DeepMind提出快速调参新算法PBT,适用GAN训练(附论文)的相关文章

Fregata 机器学习算法库开源:快速,无需调参

一. 大规模机器学习的挑战 随着互联网,移动互联网的兴起,可以获取的数据变得越来越多,也越来越丰富.数据资源的丰富,给机器学习带来了越来越多,越来越大创造价值的机会. 机器学习在计算广告,推荐系统这些价值上千亿美元的应用中起到的作用越来越大,创造的价值也越来越大.但是越来越大的数据规模也给机器学习带来了很多挑战. 最大的挑战就是庞大的数据量使得对计算资源的需求也急剧增长.首先经典的机器学习算法其计算量基本上都是与训练数据条数或者特征数量呈二次方甚至是三次方关系的[1].即是说数据量或者特征数每翻

轻量级大规模机器学习算法库Fregata开源:快速,无需调参

一. 大规模机器学习的挑战 随着互联网,移动互联网的兴起,可以获取的数据变得越来越多,也越来越丰富.数据资源的丰富,给机器学习带来了越来越多,越来越大创造价值的机会. 机器学习在计算广告,推荐系统这些价值上千亿美元的应用中起到的作用越来越大,创造的价值也越来越大.但是越来越大的数据规模也给机器学习带来了很多挑战. 最大的挑战就是庞大的数据量使得对计算资源的需求也急剧增长.首先经典的机器学习算法其计算量基本上都是与训练数据条数或者特征数量呈二次方甚至是三次方关系的[1].即是说数据量或者特征数每翻

【直观梳理深度学习关键概念】优化算法、调参基本思路、正则化方式等

引言 深度学习目前已成为发展最快.最令人兴奋的机器学习领域之一,许多卓有建树的论文已经发表,而且已有很多高质量的开源深度学习框架可供使用.然而,论文通常非常简明扼要并假设读者已对深度学习有相当的理解,这使得初学者经常卡在一些概念的理解上,读论文似懂非懂,十分吃力.另一方面,即使有了简单易用的深度学习框架,如果对深度学习常见概念和基本思路不了解,面对现实任务时不知道如何设计.诊断及调试网络,最终仍会束手无策. 本系列文章旨在直观系统地梳理深度学习各领域常见概念与基本思想,使读者对深度学习的重要概念

DeepMind提出SCAN:仅需五对样本,学会新的视觉概念!

雷锋网 AI科技评论按:DeepMind实验室发布名为符号-概念联合网络(Symbol-Concept Association Network,SCAN)的新型神经网络模型,可以让计算机模仿人类视觉和词汇获取的方法,通过重组学到的概念,来想象新的概念. 以下为雷锋网 AI科技评论根据DeepMind实验室发布内容编译. 大约二千五百年前,一个美索不达米亚商人收集了一些粘土.木材和芦苇,随着时间的推移,通过这些材料,他们发明了算盘,能够在商品交易过程中记录货物数量.理清资产,这带动了经济的蓬勃发展

网站如何应对百度新算法而被快速收录

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 百度最近已经更改网页权重算法,主要目的是打压电子商务网站和一些门户网站(阿里巴巴和搜狐网易腾讯等都是被打压的对象),以及彻底删除.cn域名的一些垃圾网站.网站SEO如何应对百度新算法以及新站如何被百度快速收录呢?下面公布一些要点. 1. 一定要等网站建设完成后再向百度提交你的申请.此点非常重要! 2. 网站早期的内容要保证80%原创化,即切记

网站优化如何应对百度新算法而被快速收录

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 百度最近已经更改网页权重算法,主要目的是打压电子商务网站和一些门户网站(阿里巴巴和搜狐网易腾讯等都是被打压的对象),以及彻底删除.cn域名的一些垃圾网站.网站SEO如何应对百度新算法以及新站如何被百度快速收录呢?下面公布一些要点. 1.一定要等网站建设完成后再向百度提交你的申请.此点非常重要! 2.网站早期的内容要保证80%原创化,即切记不要

【两项业界最佳】普林斯顿新算法自动生成高性能神经网络,同时超高效压缩

神经网络的结构对其性能有极其重要的影响.目前主流的神经网络结构搜索法仍然是试凑法,该方法存在三大问题: 训练过程中神经网络结构是固定的,训练并不能改善结构 时间和计算消耗巨大 生成的网络通常很冗余,计算和存储成本过高 为了解决以上问题,普林斯顿大学研究人员仿照人类大脑的学习过程,提出了一种自动生成神经网络的算法.该算法从一个种子结构(seed architecture)开始,这个种子结构类似于初生婴儿的大脑. 在训练过程中,先根据反向传播算法获得的梯度(gradient),连接和生长(grow)

快速幂取模算法

所谓的快速幂,实际上是快速幂取模的缩写,简单的说,就是快速的求一个幂式的模(余).在程序设计过程中,经常要去求一些大数对于某个数的余数,为了得到更快.计算范围更大的算法,产生了快速幂取模算法.我们先从简单的例子入手:求abmodc 算法1.直接设计这个算法: int ans = 1; for(int i = 1;i<=b;i++) { ans = ans * a; } ans = ans % c; 缺点:这个算法存在着明显的问题,如果a和b过大,很容易就会溢出. 我们先来看看第一个改进方案:在讲

Google新算法下 什么样的SEO方法才是安全的

上周,J. C. Penney由于使用付费链接进行推广遭到Google的降权惩罚;而这周,Forbes网站因为出售链接遭受惩罚,还有更多被惩罚的网站相继出现,Overstock同样面临着降权的处境.这些大站在Google的新算法下,因为类似的原因相继落马.在这种严峻的形式下,请问你的站现在安全吗?于是出现了今天的问题:什么样的搜索引擎优化方法是危险的,什么样的方法是安全的呢? 付费链接与其他形式的Spam: Google近期的举动主要集中在付费链接这方面.但是,这并不是唯一让你的网站处于危险境地