OpenAI"巧妙"发现无监督情感神经元,可利用文本检测用户情感

雷锋网(公众号:雷锋网)4月7日消息,OpenAI在官网公布了一项最新的研究成果,介绍了一个可以高效学习情感表征的无监督系统,目前能够预测亚马逊评论中的下一个字符。

研究人员采用了线性模型,在一个小型但是被广泛采用的数据集(Standford
Sentiment
Treebank)上取得了非常高的情感分析准确度:OpenAI得到的准确度为91.8%,而之前最好的是90.2%。这一表现可以匹敌之前的监督系统,而且少用了30~100倍的标记样本。

此外OpenAI表示,其模型的表征还包含了一个独立的“情感神经元(sentiment neuron)”,这个“情感神经元”包含了几乎所有的情感信号。

OpenAI称,“我们的系统在使用极少训练数据的情况下,比起其它同样用Stanford Sentiment Treebank测试的系统有着更好的结果。”

为了达到完全监督学习的效果,OpenAI的模型选取了两个变量来代表标记的样本(绿色和蓝色的线条),每一个变量训练6920个样本(灰色虚线)。OpenAI的L1正则化模型(利用亚马逊的用户评论以无监督的方式进行预先训练)只用了11个标记的样本,其表现就能够与多通道的CNN(卷积神经网络)相匹敌,而使用了232个训练样本之后,其性能甚至达到了非常先进的CT-LSTM
Ensembles的水平。

OpenAI称,他们非常惊讶,因为模型学会了一个可以判断的特征,除了预测亚马逊用户评论的下一个字符外,实际上还能引出情感的概念。OpenAI相信,这种现象不是这一模型所特有的,而是一些大型神经网络的一般性质(共性),这些大型神经网络通常被训练用来预测输入中的下一步骤或者下一维度。

训练方法

雷锋网了解到,OpenAI首先利用亚马逊上的8200万条用户评论,训练了一个有4096个单元的乘性LSTM(multiplicative
LSTM,简称mLSTM),来预测一小段文本中的下一个字符。团队采用了4块英伟达的Pascal
GPU,每小时能够处理12500个字符,训练总共花了一个月的时间。

这4096个单元(其实是浮点数组成的向量)可以看成是模型读取的字符串的特征向量。在训练mLSTM之后,OpenAI将这些单元进行线性组合,通过现有的监督数据学习组合的权重,将原本的模型变成了情感分类器。

情感神经元

在用L1正则化训练线性模型的同时,令人惊讶的是,OpenAI注意到它使用的学习单元其实非常少。进一步挖掘后,研究人员意识到模型中实际上存在着一种可以精准预测情绪值的“情感神经元”。

尽管这一模型仅被训练用来预测文本中的下一个字符,但是模型中的情感神经元却可以将评论归为负面或者正面两类。

和其他类似的模型一样,OpenAI的模型可以用来生成文本;但不同的地方在于,OpenAI可以通过重写神经元的值来控制合成文字的情感。

上图是训练模型生成的合成文本的示例。研究人员先确定情感神经元的值,然后从模型中随机选择样本,以确定评论中的情感。如下图所示,研究人员还通过模型传递前缀“I couldn’t figure out(我搞不清楚)”,然后只选择高度相似的样本。

示例

下图表示情感神经元代表的每个字符的值,红色的为负,绿色为正。其中“best(最好)”或者“horrendous(可怕的)”这样有强烈指示性的词语则会用更深的颜色重点标记。

值得注意的是,在完成句子和短语之后,系统会进行大量更新。例如,在“And
about 99.8 percent of that got lost in the film”中,即使“in the
film”本身没有任何情绪内容,但是在“lost”之后模型会进行一次负面更新,而在句子结束后还会有一次大的更新。

无监督学习

有标记的数据是机器学习的燃料。收集数据很容易,但是想要大规模地标记数据则很困难。只有在机器翻译、语音识别或者自动驾驶等具有切实效果和回报的领域,大规模地标记数据才是切实可行的。

长久以来,机器学习领域的研究人员一直梦想着开发出能够学习数据集的准确表征的无监督学习算法,希望用很少的标记数据就能够解决问题。OpenAI的研究意味着,在创建具有优秀表征学习能力的系统时,简单地利用大量数据训练大型无监督下一步预测模型(next-step-prediction
model)很可能是一种不错的方法。

下一步

OpenAI的研究成果代表通用无监督表征学习又向前迈进了一步。研究人员在探索是否可以通过语言建模来学习高质量的表征时意外发现了这一结果,并在经过仔细选择的数据集上扩大了这个现有模型。然而,目前研究人员还不清楚这个潜在的现象的具体成因。

这些结果在长文档的数据上的表现并不是很好。OpenAI猜测,他们的模型难以记住数百乃至数千个时间步长的信息。他们认为,下一步可以尝试采用层次模型(hierarchical
model),因为层次模型可以自适应相应的时间尺度。进一步扩展这些模型,还可能进一步提高表征保真度( representation
fidelity ),以及在情感分析和类似任务方面的表现。

当输入文本和评论数据的差别越大时,该模型的表现就越差。值得验证的是,扩展文本样本的语料库能否获得适用于更广泛领域的同等信息量的表征?

OpenAI的研究结果表明,大型的下一步预测模型能够学会出色的无监督表征。利用大规模的视频集训练一个大型的神经网络来预测下一帧画面,可能会得到对目标、场景、动作分类器的无监督表征。

总的来说,理解模型、训练方式、以及数据集的属性是很重要的,因为它很可能会得到同样出色的表征。

本文作者:周翔

本文转自雷锋网禁止二次转载,原文链接

时间: 2024-09-22 19:01:43

OpenAI"巧妙"发现无监督情感神经元,可利用文本检测用户情感的相关文章

采用无监督HEBB学习规则与有监督与有监督HEBB学习规则自适应PID控制器比较

问题描述 采用无监督HEBB学习规则与有监督与有监督HEBB学习规则自适应PID控制器比较 大家好,请问大家一个问题使用MATLAB仿真,将采用无监督Hebb学习规则和有监督Hebb学习规的单神经元自适应PID控制进行比,对结果进行分析,较有监督和无监督结果有什么区别,对温度的控制在超调量.精度等方面进行比较.?请教大家了谢谢大家了

上海科技大学屠可伟团队:小谈无监督依存句法解析

本文作者蒋勇为上海科技大学博士生,师从屠可伟博士.本文为蒋勇接受雷锋网AI科技评论独家约稿撰写的工作介绍,未经许可不得转载. 自然语言总有丰富的内部结构信息,而这些信息一般都是通过解析树(parse tree)来进行表示.一般而言,我们把从一个句子到句法树的这一过程称为句法解析(parsing). 句法解析有很多种形式,最为常用的是基于短语的句法解析(constituency parsing)和依存句法解析(dependency parsing).句法解析作为自然语言处理(NLP)的基础任务之一

2017上半年无监督特征学习研究成果汇总

更多深度文章,请关注:https://yq.aliyun.com/cloud 特征学习在无监督学习方式下的趋势:回归到多元学习的随机目标,利用因果关系来表征视觉特征,以及在强化学习中,通过辅助控制任务增加目标,并通过自发进行预训练.从未标记的数据中学到很多东西,似乎我们只用标签撇去了它的表面. 在这篇文章中,我将向你展示,2017年无监督学习领域发生了什么变化. 无监督学习是机器学习中长期存在的挑战,它被认为是人工智能的重要组成部分.在没有标签的数据中有很多信息,我们并没有完全的使用它,而值得注

Facebook最新对抗学习研究:无需平行语料库完成无监督机器翻译

Facebook试图将机器翻译的成功扩展到低资源语言对,研究了在没有任何平行数据的情况下,实现无监督的机器翻译.他们提出的模型有效地学习了在不使用任何标记数据的情况下进行翻译. 论文下载链接:https://arxiv.org/pdf/1711.00043.pdf 相信大家都知道,最近在机器翻译领域取得了令人印象深刻的成果,而这主要归功于最近在深度学习方面所取得巨大进步,以及大规模平行语料库(large-scale parallel corpora)的可用性.我们已经进行过无数次尝试,试图将这些

PaperWeekly 第十七期 --- 无监督/半监督 NER

引言 命名实体识别是自然语言处理中一个非常基础的工作,是自然语言处理中关键的一个环节.监督学习是解决命名实体识别任务的一个基本手段,但标注数据的获取成本往往会比较高,本期PaperWeekly将带大家来看一下如何通过半监督或者无监督的方法来做命名实体识别任务.本期分享的4篇Paper Notes分别是: 1.Building a Fine-Grained Entity Typing System Overnight for a New X (X = Language, Domain, Genre

趋势科技再次发现无文件恶意攻击,攻击目标集中在亚洲

本文讲的是趋势科技再次发现无文件恶意攻击,攻击目标集中在亚洲, 最近趋势科技的研究人员发现一个新的专门挖掘加密货币的无文件恶意攻击软件(被趋势科技检测为TROJ64_COINMINER.QO).在七月份亚太地区的一些攻击中,研究人员第一次发现这个恶意攻击软件.通过监控数据,研究人员发现显示受此攻击影响最大的国家,感染如下: 2017年7月至8月期间TROJ64_COINMINER.QO感染的分布情况 此攻击使用WMI(Windows Management Instrumentation)作为其无

OpenAI最新发现:在参数空间增加噪声,易于实现,并能轻松加快学习速度

雷锋网(公众号:雷锋网) AI科技评论按:OpenAI最新发现表明,通过在网络的参数空间中加入噪声,可以获得远优于在网络的行为空间中增加噪声的表现.此外,他们发布了一系列基准代码,覆盖多个网络. 雷锋网 AI科技评论编译如下: OpenAI实验室最新发现:频繁地给增强学习算法中的参数增加自适应噪声后,能得到更好的结果.这种方法实现简单,基本上不会导致结果变差,值得在任何问题上尝试. 图1:加入行为空间噪声训练的模型 图2:加入参数空间噪声训练的模型 参数噪声可以帮助算法高效地探索出合适的动作范围

抽丝剥茧 发现无觅背后的大棋局

中介交易 SEO诊断 淘宝客 云主机 技术大厅 从2010年2月,无觅网正式面世,到2011年1月17日无觅网络以 邀请加入形式发布.历时11个月,无觅的产品框架逐步清晰,而在其背后,一个偌大的个性化互联网计划呼之欲出,开放互联的宏伟目标崭露头角.仔细思量无觅 网和无觅网络,可以看到背后庞大的互联网蓝图;但对于大多数普通用户而言,大多管中窥豹,只见一斑,似乎这些产品是混乱而没有逻辑的.敝人在逐个试用了无 觅的产品,并深入思量过后,姑且给大家分析一下我所发现的,隐藏在表面斑驳背后的锦绣蓝图. 无觅

【Science】无监督式机器翻译,不需要人类干预和平行文本

因为神经网络,即一种以人脑为启发的计算机算法,自动的语言翻译取得了长足的进步.但是训练这样的网络需要大量的数据:通过数以百万计逐句对应的翻译来展示人类是如何做到这一点的.现在,两篇新的论文表明,神经网络可以在不需要平行文本的情况下学习翻译,这是一个令人惊讶的进步,它将可以让人们可以读懂更多语言的文档. "想象一下,你给一个人很多中文书籍和大量的阿拉伯语书籍,这些书之间没有重叠,但这个人必须学会把中文翻译成阿拉伯语.这似乎是不可能的,对吧?"其中一项研究的第一作者,西班牙圣塞巴斯蒂安巴斯