2017上半年无监督特征学习研究成果汇总

更多深度文章,请关注:https://yq.aliyun.com/cloud



特征学习在无监督学习方式下的趋势:回归到多元学习的随机目标,利用因果关系来表征视觉特征,以及在强化学习中,通过辅助控制任务增加目标,并通过自发进行预训练。从未标记的数据中学到很多东西,似乎我们只用标签撇去了它的表面。

在这篇文章中,我将向你展示,2017年无监督学习领域发生了什么变化。

无监督学习是机器学习中长期存在的挑战,它被认为是人工智能的重要组成部分。在没有标签的数据中有很多信息,我们并没有完全的使用它,而值得注意的是,大脑的学习机理大多是无监督的学习方式。

为了模拟人脑的终极目标,无监督学习成为了很多研究人员的研究热点。接下来我们就介绍一些近期无监督学习的成果。

第一个成果:多元学习的随机目标

Unsupervised learning by predicting the noise[Bojanowski&Joulin ICML17];这篇论文,今年在ICML中排名第一。想法如下:从超球体采样均匀的随机向量,数值为数据点的数量级。这些将成为回归目标的替代者。事实上,通过以最小化损失进行监督式学习,在深层卷积网络中学习视觉特征,可以将图像与随机向量相匹配。大致过程如图所示:

特别地,在训练过程网络参数的梯度下降交替之间,将伪目标重新分配给不同的图像,以便最小化损失函数。这里是ImageNet的视觉特征的结果;他们都是在ImageNet上训练AlexNet的结果,左边是目标,右边是提出无监督的方法。

在论文中探讨的转移学习,似乎是最先进的。但为什么要这样工作呢?因为神经网络正在学习一个新的特征空间,这是一种隐含的多元学习。通过混合分配进行优化可能是至关重要的,因为不良匹配将不允许将类似图像映射给彼此。此外,网络必须作为信息瓶颈(information bottleneck)。否则,在无限容量的情况下,模型将简单地学习一个不知情的1对1图像到噪声图(Noise map)。

第二个成果:因果关系的重要性

Discovering
causal signals in images[Lopez-Paz et al。CVPR17]
我从同LéonBottou鼓舞人心的谈话中发现了第二个成果:looking for missing signal,接下来要介绍的是他们的WGAN。这里的讨论重点是关于因果关系。但在谈论之前,让我们再回一下,看看因果关系。

如果你站在机器学习视角中去了解因果关系,你会很快得出结论:整个领域在其基础上缺少一些相当重要的东西。我们创造了一个完整的解决行业问题的方法,那就是只考虑相关性,联想和预测只是考虑训练数据中的相关性,但这在许多情况下不会起到真正的作用。如果我们能够在学习决策中考虑上因果关系的模型会不会有所好转?基本上,我们可以避免卷积网络告诉我们,图片中的动物是狮子,因为背景显示了的Savanna(美国东南部的大草原,有狮子)。

许多人正在努力实现这一想法。这篇论文旨在通过实验验证“图像数据集的高阶统计信息可以告知因果关系”。更准确地说,作者猜测,对象特征和反效应特征是密切相关的,反之亦然,上下文特征和因果特征不一定相关。上下文特征给出了背景,而对象特征是通常在图像数据集中的边界框内,分别是大草原和狮子的鬃毛。

“因果特征是导致图像中对象存在的原因,而抗因素特征是由图像中对象的存在产生的”在我们的例子中,一个因果关系确实是Savanna的视觉模式,而一个反作用的特征将是狮子的鬃毛。

他们是如何进行实验的?首先,我们需要训练一个检测器作为因果方向。这个想法是基于以前的许多工作,实验表明“加性因果模型”可能会在关于因果关系方向的观察数据中留下统计学意义,这反过来可以通过研究高阶矩来检测。(如果这些听起来很陌生,我建议你阅读本文的参考资料)。这个想法是学习如何通过神经网络来捕获这个统计轨迹,该神经网络的任务是区分因果/反效应。

训练这种网络的唯一方法就是对关于因果关系的事实进行标注。这些数据集中并不多。但事实是,这些数据可以很容易地合成,通过采样变量原因-效应和指示方向进行人工标注。

第二,两个版本的图像,无论是对象还是背景消隐,都被标准的深度残留网络特征化。一些对象和上下文被设计在这些特征之上,作为图像是否可能是关于对象或其上下文的信号。

最后我们可以将对象和上下文与形象中的因果关系或反作用关联起来。

通过实验证明了上述猜想,这个实验意味着图像中的因果关系实际上与对象及其上下文之间的差异有关。结果有希望开辟新的研究途径,因为更好的因果方向的算法在原则上将有助于学习在数据分布发生变化时更好的学习特征。因果关系应该有助于通过了解数据生成过程来构建更强大的功能。

第三个成果:使用无监督辅助任务的强化学习

Reinforcement
learning with unsupervised auxiliary tasks[Jaderberg et al。ICLR17]
根据现行的标准,本文显得有点古老,因为在撰写本文时已经有60篇引文。实际上有一些更新的工作已经建立在这个想法上。我选择这一点,正是因为它具有新颖的洞察力,而不是基于它来讨论更复杂的方法。

第三个成果主角是强化学习。强化学习的研究人员的主要困难是稀缺/延迟奖励。那么为什么不通过引入辅助任务来增强训练信号呢?当然,​​伪奖励必须与真正的目标相关,而不是借助于人类的监督。

这篇论文的建议是:通过辅助任务的性能总和来增加目标函数(最大化的奖励)。实际上,将有一些模型近似于主要策略和其他完成附加任务的策略;那些模型分享他们的一些参数,例如底层可以共同学习来模拟原始的视觉特征。代理函数必须提高其在奖励方面的绩效,从而提高辅助任务的表现。

论文探讨的辅助任务:首先,像素控制。代理学习是一个单独的策略,以最大限度地改变输入图像上的像素网格。理由是“感知流中的变化通常与环境中的重要事件相对应”,因此学习控制变化是有益的。二,功能控制。训练该代理以预测策略/价值网络的某些中间层中的隐藏单元的激活值。这个想法很有意思,因为代理的策略或价值网络会提取与环境相关的高级功能的任务。三,奖励预测。代理学会预测即将来临的回报。这三个辅助任务可以通过从之前的代理经验的缓冲区经验回放学习。缩短其他细节,整个方法称为UNREAL。它被应用在Atari游戏和Labyrint上学习更快更好的策略。

论文中的最终洞察力在于对像素控制的有效性,而不是简单地预测具有重建损耗或像素输入变化的像素。它们都可以被视为视觉自我监督学习的形式。“学习重建只是导致更快的初步学习,实际上会使得最后的成绩更糟。我们的假设是,输入重建会损害最终的表现,因为它将过多的重点放在重建视觉输入的不相关部分而不是视觉线索的奖励。

第四个成果:Self-Play让学习过程更快

Intrinsic
motivation and automatic curricula via asymmetric self-play[Sukhbaatar et al。arXiv17]
.我想强调的最后一个论文与上述强化学习辅助任务的想法有关。但是,至关重要的是,不是明确地调整目标函数,而是在一定程度上对代理进行了训练,以完成自我优化,更简单的自动完成任务。

通过将代理分解为“两个独立的头脑”,Alice 和Bob,建立了Self-Play的初始阶段。论文作者提出Self-Play,假设环境必须可逆或重新设定为初始状态。在这种情况下,Alice执行一个任务,并要求Bob执行相同操作,等到Alice最终达到我们可观察的状态。例如,Alice可以拿起钥匙,打开一扇门,在某个地方关上灯光和停止,Bob必须遵循相同的行动清单并停在同一个地方。最后,你可以想象,这个简单的环境的原始任务是在房间里的一个灯点亮:

这些任务由Alice设计,迫使Bob学习与环境的互动。而且Alice和Bob有其独特的奖励功能:如果Bob在最短的时间内完成,Bob就会得到回报;而当Bob花费更多的时间,同时能够实现目标时,Alice就会得到回报。这些策略之间的相互作用允许他们“自动构建探索课程”。

他们在星际争霸的上测试了这个想法,没有敌人打架。“目标任务是建造海事单位。为此,代理必须遵循具体的操作顺序:(i)矿工与工人;(ii)积累足够的矿物质供应,建造军营。(iii)军营一旦完成后,将海洋单位列入其中。代理可以训练新的工人来进行更快的采矿,或者建造供应仓库以容纳更多的单元。经过200个步骤,代理为每个海军建造+1。

“由于完全匹配游戏状态几乎是不可能的,Bob的成功只是基于游戏状态,包括每种类型(包括建筑物)的单位数量和积累的矿物资源。所以Bob的自我发挥的目的是在尽可能短的时间内与Alice一起制造尽可能多的单位和矿物。在这种情况下,Self-Play真的有助于加速学习过程,并且更好地融合Reinforce +一个更简单的预训练的基准方法:

请注意,情节没有考虑到预训练策略所花费的时间。

总结:

无监督学习虽然很难,但是衡量其表现更加困难。在Yoshua Bengio的话中:“我们不知道什么是好的代表,我们没有一个很好的定义,即什么是正确的目标函数,即使衡量一个系统在无人值守学习方面做得很好。”

事实上,几乎所有在无监督学习的模型中都使用监督或强化学习来衡量这些特征是多么有用。

参考

1.[Bojanowski&Joulin ICML17] Piotr Bojanowski和Armand Joulin,Unsupervised learning by predicting
the noise,ICML17。

2.[Bojanowski
et al。arXiv17]
 Piotr Bojanowski,Armand Joulin,David Lopez-Paz和Arthur Szlam,Optimizing the latent space of
generative networks,arXiv17。

3.[Jaderberg
et al。ICLR17]
 Max Jaderberg,Volodymyr Mnih,Wojciech Marian Czarnecki,Tom Schaul,Joel Z Leibo,David Silver和Koray Kavukcuoglu,Reinforcement
learning with unsupervised auxiliary tasks,ICLR17。

4.[Lopez-Paz
et al。CVPR17]
 David Lopez-Paz,西伯利亚西哈拉,Soumith Chintalah,BernhardSchölkopf和LéonBottou,Discovering causal signals in images,CVPR17。

5.[Louizos
et al。NIPS17]
 Christos Louizos,Uri Shalit,Joris Mooij,David Sontag,Richard Zemel和Max Welling,Causal effect inference with deep
latent-variable models,NIPS17。

6.[Matiisen
et al。arXiv17]
 Tambet Matiisen,Avital Oliver,Taco Cohen和John Schulman,teacher-student curriculum learning,arXiv17。

7.[Sukhbaatar
et al。arXiv17]
 Sainbayar
Sukhbaatar,Zeming Lin,Ilya Kostrikov,Gabriel Synnaeve和Arthur Szlam,Intrinsic
motivation and automatic curricula via asymmetric self-play,arXiv17。

8.[Peters
et al。JRSS15]
 Jonas Peters,PeterBühlmann和Nicolai Meinshausen,Causal
inference using invariant prediction: identification and confidence intervals,皇家统计学会杂志17。

文章原标题《In search of the missing signals

作者:Giorgio patrini 任职于UvA-Bosch DELTA实验室(阿姆斯特丹深度学习技术)的博士后研究员

博客:http://giorgiopatrini.org/

译者:袁虎 审阅:主题曲哥哥

文章为简译,更为详细的内容,请查看原文

时间: 2024-09-03 15:09:39

2017上半年无监督特征学习研究成果汇总的相关文章

采用无监督HEBB学习规则与有监督与有监督HEBB学习规则自适应PID控制器比较

问题描述 采用无监督HEBB学习规则与有监督与有监督HEBB学习规则自适应PID控制器比较 大家好,请问大家一个问题使用MATLAB仿真,将采用无监督Hebb学习规则和有监督Hebb学习规的单神经元自适应PID控制进行比,对结果进行分析,较有监督和无监督结果有什么区别,对温度的控制在超调量.精度等方面进行比较.?请教大家了谢谢大家了

OpenAI"巧妙"发现无监督情感神经元,可利用文本检测用户情感

雷锋网(公众号:雷锋网)4月7日消息,OpenAI在官网公布了一项最新的研究成果,介绍了一个可以高效学习情感表征的无监督系统,目前能够预测亚马逊评论中的下一个字符. 研究人员采用了线性模型,在一个小型但是被广泛采用的数据集(Standford Sentiment Treebank)上取得了非常高的情感分析准确度:OpenAI得到的准确度为91.8%,而之前最好的是90.2%.这一表现可以匹敌之前的监督系统,而且少用了30~100倍的标记样本. 此外OpenAI表示,其模型的表征还包含了一个独立的

Facebook最新对抗学习研究:无需平行语料库完成无监督机器翻译

Facebook试图将机器翻译的成功扩展到低资源语言对,研究了在没有任何平行数据的情况下,实现无监督的机器翻译.他们提出的模型有效地学习了在不使用任何标记数据的情况下进行翻译. 论文下载链接:https://arxiv.org/pdf/1711.00043.pdf 相信大家都知道,最近在机器翻译领域取得了令人印象深刻的成果,而这主要归功于最近在深度学习方面所取得巨大进步,以及大规模平行语料库(large-scale parallel corpora)的可用性.我们已经进行过无数次尝试,试图将这些

CCAI 2017 日本理化学研究所先进智能研究中心主任杉山将:弱监督机器学习的研究进展

在本次大会上,日本人工智能和机器学习领域新一代的代表性人物--日本理化学研究所先进智能研究中心主任Masashi Sugiyama(中文名:杉山将)为参会者带来了<弱监督机器学习的研究进展>的演讲.杉山将在机器学习领域发表过很多重要的理论,是这个领域最知名的学者之一,出版了机器学习相关书籍<图说机器学习>(中文版). 以下内容根据杉山将本次主题演讲整理,略有删减: 大家早上好,我叫杉山将,非常高兴能够参加今天的大会,也很高兴和这么多中国的研究人员见面,我也特别喜欢杭州的文化和当地的

上海科技大学屠可伟团队:小谈无监督依存句法解析

本文作者蒋勇为上海科技大学博士生,师从屠可伟博士.本文为蒋勇接受雷锋网AI科技评论独家约稿撰写的工作介绍,未经许可不得转载. 自然语言总有丰富的内部结构信息,而这些信息一般都是通过解析树(parse tree)来进行表示.一般而言,我们把从一个句子到句法树的这一过程称为句法解析(parsing). 句法解析有很多种形式,最为常用的是基于短语的句法解析(constituency parsing)和依存句法解析(dependency parsing).句法解析作为自然语言处理(NLP)的基础任务之一

智谷大会上,来自全球领先专业的专家学者们都分享了什么样的研究成果?

在上个月US News公布的2017最新全球大学排名中,清华大学有4个学科排名全球前10,其中在工程类专业排名第一,计算机科学专业排名第二.那么,在清华的这些院系中又在关注哪些领域,产生了什么样的成果呢?在刚刚召开的首届中国智谷大会上,清华大学智能技术与系统国家重点实验室.清华大学全球产业4.5研究院以及来自计算机系.自动化系等系的老师们精英尽出,为我们分享了在人工智能等领域的最新学术进展.我们可以从中管窥一二: 张钹院士 计算机科学与技术专家,中国科学院院士.主要从事人工智能.人工神经网络.遗

PaperWeekly 第十七期 --- 无监督/半监督 NER

引言 命名实体识别是自然语言处理中一个非常基础的工作,是自然语言处理中关键的一个环节.监督学习是解决命名实体识别任务的一个基本手段,但标注数据的获取成本往往会比较高,本期PaperWeekly将带大家来看一下如何通过半监督或者无监督的方法来做命名实体识别任务.本期分享的4篇Paper Notes分别是: 1.Building a Fine-Grained Entity Typing System Overnight for a New X (X = Language, Domain, Genre

有监督相似性学习:基于相似问题数据的对称关系学习

首发地址:https://yq.aliyun.com/articles/79584 更多深度文章,请关注:https://yq.aliyun.com/cloud 基于文本对分类的监督模型,可以根据它们之间的某些关系创建一个软件,该软件为这两个文本分配标签.当这种关系是对称的,将该约束并入模型是有用的.本文将展示孪生卷积神经网络是如何在两个重复的问题数据集上执行的效果,演示结果见此. 检测重复内容这一任务会在许多不同的平台上发生,可以从github网站Explosion AI资源库下的SpaCy问

处女作就拿下 KDD 双料最佳论文runner-up,「半路出家」的他用深度学习研究气候问题(附讲解视频)

第一次投递论文,就中了 KDD,是什么样的体验? 第一次投 KDD,不仅中了,还同时获得了最佳论文 runner-up和最佳学生论文 runner-up,又是什么样的体验? 这两个知乎体问题,邀请东北大学 SDS(Sustainability & Data Science)实验室的博士生 Thomas Vandal 来回答最合适不过了.他的处女作<DeepSD: Generating High Resolution Climate Change Projections through Sin