2017深度学习NLP进展与趋势

在过去几年中,深度学习(DL)在图像识别语音处理等领域取得了巨大的进步。

它在自然语言处理(NLP)中的应用起初并不令人兴奋,但是随着技术的进步它也为一些常见的NLP任务提供了最先进的解决方案。命名实体识别(NER)、词性(POS)标签情感分析通过神经网络模型获得了更好的解决。

在这篇文章中,我将回顾2017年DL在NLP领域的贡献。或许说是我想和大家分享一下我最喜欢的技术方案。2017年,DL在NLP中的使用不断扩大,在某些情况下产生了惊人的结果,所有迹象都表明这一趋势还会延续。

1.word2vec到预训练模型

词嵌入是与NLP有关的DL最有名的技术。他们遵循哈里斯的分配假说,根据这个假说,具有相似含义的词通常会出现在可比较的语境中。关于词嵌入的详细解释,我建议你阅读加布里埃尔·莫尔德基(Gabriel
Mordecki
的文章
。诸如word2vec(Mikolov等,2013)和GloVe(Pennington等,2014)等算法已经成为该领域的先驱,尽管它们不被认为是DL(word2vec中的神经网络较浅,GloVe实现了一个基于计数模型的方法。

词的分布向量的例子

一开始,对于一个需要词嵌入的NLP问题,我们倾向于从一个与其领域相关的大语料库中训练我们自己的模型。当然,这不是最好方法,因为预训练模型的出现。数据显示今年,预训练词嵌入模型仍然是NLP中的一个关键模型。

虽然我们看到一些进展,但在这方面还有很多工作要做。例如,NLP框架spaCy以本地方式将词嵌入和DL模型集成到了NER和Dependency Parsing等任务中,允许用户更新模型或使用自己的模型。在将来,对于在NLP框架中使用的特定领域(例如生物学,文学,经济等)预先训练好的模型是有益的。

2.通用嵌入到特定用例

也许使用预训练的词嵌入的主要缺点是训练数据与我们需要解决问题的实际数据之间存在单词分布差。假设你有关于跨领域的问题呢,例如:经济学的生物学论文、食谱。你可能没有足够大的语料库来训练良好的嵌入,所以通用嵌入语言很可能会帮助你提高结果。但是如果可以将通用嵌入调整为适合你的特定用例呢?

这种适应性通常被称为NLP中的跨域或域适应技术,它非常接近于转移学习。今年,Yang等人提出了一个正则化的skip-gram模型,用于学习目标域的嵌入,给定源域的嵌入。这是一个全新的领域,我认为它将在近期会得到更多的关注。

3.情感分析的威力

今年,Radford等人正在探索字节级循环语言模型的特性,其目的是预测亚马逊评论文本中的下一个字符,当时他们发现训练模型中的单个神经元对情感价值具有高度的预测性。这个单一的“情感神经元”能够以相当准确的方式将评论分类为正面或负面。

探讨神经元的极性与价值

注意到这种行为之后,他们决定在斯坦福情绪树库上测试模型,发现它的准确性是91.8%,而之前的最好的是90.2%。他们的模型,以无监督的方式进行训练,至少在一个特定但广泛研究的数据集上实现了的情感分析。

3.1情绪神经元正在工作

由于模型在角色层次上工作,所以神经元在文本中改变了每个角色的状态,看到它的行为是相当惊人的。

情绪神经元的行为

例如,单词best之后,神经元的值变为强正值。然而,这种效果随着horrendous的词语的消失而消失,这是有道理的。

3.2生成极性偏见的文本

当然,训练好的模型仍然是一个有效的生成模型,所以它可以用来生成类似亚马逊评论的文本。但是,我觉得更棒的是,你可以通过简单地覆盖情感神经元的价值来选择生成的文本的积极性。


情绪固定为正值


情绪固定为负面


Best hammock ever! Stays in place and holds
its shape. Comfy (I love the deep neon pictures on it), and looks so cute.


They didn’t fit either. Straight high sticks
at the end. On par with other buds I have. Lesson learned to avoid.


Just what I was looking for. Nice fitted
pants, exactly matched seam to color contrast with other pants I own. Highly
recommended and also very happy!


The package received was blank and has no
barcode. A waste of time and money.

作者选择的NN模型是由Krause等人提出的乘法multiplicativeLSTM 主要是因为他们观察到,它们正在探索的超参数设置比正常的LSTM收敛的快。它有4,096个单位,并接受了8200万亚马逊评论的语料库的训练。为什么训练良好的模式能够以一种精确的方式捕捉到情感概念仍然是一个迷人的问题。同时,你可以尝试训练你自己的模型并进行实验。

3.3 Twitter中的情感分析

无论是人们对企业品牌的评价,分析营销活动的影响,还是衡量竞选期间对希拉里·克林顿和唐纳德·特朗普的民意调查,Twitter中的情感分析都是一个非常强大的工具。

唐纳德·特朗普vs希拉里·克林顿:Twitter上的情绪分析。

3.3.1:SemEval 2017

Twitter中的情感分析不仅引起了NLP研究人员的关注,而且也引起了政治和社会科学界的关注。这就是为什么2013年以来,SemEval大受关注的原因。今年共有48支参赛队参加,为了了解其内容,让我们来看看今年提出的五个子任务:

1.    子任务A:给一则推文,判断其表达的情形:正面,负面或中性。

2.    子任务B:给出一则推文和一个话题,判断主题表达的情感正面与负面。

3.    子任务C:给出一个推文和一个话题,判断推文中传达的情绪等级:强积极,弱积极,中性,弱消极和强消极。

4.    子任务D:给出一组关于话题的推文,判断这组推文在积极和消极之间的分布。

5.    子任务E:给出一组关于某个话题的推文,估计推文在强积极、弱积极、中性、弱消极和强消极的分布情况。

子任务A是最常见的任务,有38个团队参与了这个任务,但是其他的则更具挑战性。主办方表示,DL方法的使用正在不断增加,今年有20个团队使用卷积神经网络(CNN)和长期短期记忆(LSTM)等模型。此外,尽管SVM模型仍然非常流行,但一些参与者将它们与神经网络方法或者使用了词嵌入特征相结合。

3.3.2:BB_twtr系统

今年我发现一个纯的DL系统BB_twtr系统(Cliche,2017)在5 个子任务中排名第一。作者将10个CNN和10个双向LSTM结合起来,使用不同的超参数和不同的预训练策略训练。

为了训练这些模型,作者使用了人工标记的推文(子任务A有49,693个),并且构建了一个包含1亿个推文的未标记数据集,通过简单的标记来提取推特数据集中表示积极的积极表情符号,如:-),反之亦然消极鸣叫。为了对CNN和双向LSTM输入的词嵌入进行预训练,作者使用word2vec,GloVe和fastText在未标记的数据集上构建词嵌入。然后他使用隔离的数据集来添加积极和消极的信息,然后使用人类标记的数据集再次提炼它们。之前的SemEval数据集的实验表明,使用GloVe会降低性能。然后作者将所有模型与软投票策略结合起来。由此产生的模型比2014年和2016年的历史最好的历史成绩更胜一筹。

这项工作表明了将DL模型结合起来,可以在Twitter中的情感分析中超越监督学习的方法。

4.一个令人兴奋的抽象概括系统

自动摘要自动翻译是最早的NLP任务。自动摘要有两种主要的方法:一是通过从源文本中提取最重要的段而建立的,二是通过生成文本来创建摘要。

近年来,基于RNN的模型在文本生成方面取得了惊人的成果。它们对于处理短的输入和输出文本表现非常好,但处理长文本往往是不连贯的。保卢斯Paules提出了一种新的神经网络模型来克服这个局限性。结果很好,如下图所示:

生成摘要的模型的插图

他使用双向LSTM编码器读取输入,并使用LSTM解码器生成输出。他们的主要贡献是使用一种新的内部注意力策略分别关注输入和连续生产的输出,并且结合了标准监督词语预测和强化学习。

4.1内部注意力策略(intra-attention strategy)

内部注意力策略的目标是避免输出中的重复。它们在解码时使用时间注意力来查看输入文本的前一段,然后决定下一个将要产生的字。这迫使模型在生成过程中使用输入的不同部分。他们还允许模型从解码器访问以前的隐藏状态。然后将这两个功能组合起来,为输出摘要选择最好的单词。

4.2强化学习

创建摘要时,两个不同的人将使用不同的单词和句子,但这两个摘要都是可行的。因此,一个好的摘要不一定是与训练数据集中的序列相匹配的单词序列。基于这一点,作者没有使用teacher forcing算法,它可使每个解码步骤的损失最小化,他们通过使用强化学习策略,获得了更好的性能。

5.无监督机器翻译的第一步?

双语词典归纳,即用源语言和目标语言的单语语料库获取映射关系,这是一个古老的NLP任务。自动生成双语词典有助于其他NLP任务,如信息检索统计机器翻译。然而,这个词典并不是容易获取或者很容易建立。

随着词嵌入的成功,跨语言词嵌入的想法也出现了,目标是对齐嵌入空间而不是词典。不幸的是,这种方法也依赖于双语词典或平行语料库。Conneau et al·(2018)提出了一个非常有前景的方法,不依赖于任何特定的资源,且对于多个语言对的次翻译、句子翻译检索和跨语言单词相似度任务上优于监督学习的方法。

该方法是将输入的两组单词嵌入在单语数据上进行独立训练,并学习它们之间的映射,以便共享空间中的翻译结果。他们使用fastText在维基百科文档上训练的无监督单词向量。以下图片说明了关键的想法:

建立两个词嵌入空间之间的映射。

红色的X分布是英语单词的嵌入,蓝色的Y分布是意大利语单词的分布。

首先,他们使用对抗学习来学习旋转矩阵W,W执行第一次原始对齐。他们根据Goodfellow等人提出的主张,基本上训练了一个生成对抗网络(GAN)。要了解GAN是如何工作的,我建议你看这篇由Pablo Soto撰写的优秀文章

为了使用对抗学习对问题进行建模,他们将鉴别器定义为具有决定作用的角色,从WX和Y随机采样的一些元素(参见上图中的第二列),每个元素属于哪种语言。然后,他们训练W以防止鉴别者做出好的预测。这在我看来非常聪明,直接的结果是相当不错的。

之后,他们再应用两个步骤来完善映射。一是为了避免罕见字引入映射计算中的噪声。另一步主要是使用学到的映射和距离度量来构建实际的翻译结果。

这个方法在一些案例中表现的很不错,例如,对于英文-意大利语的翻译,在P @ 10的情况下,它在1500个单词上的准确率比最优的高出17%。

英语 - 意大利语词汇平均精度

6.框架和工具

TensorFlowKerasPyTorch,他们应用都非常广泛。然而,面向特定开源NLP的DL框架和工具才刚刚兴起。其中有三个引起了我的注意,你可能会觉得有趣。

6.1.AllenNLP

AllenNLP框架是建立在PyTorch之上,它能够轻松地使用语义NLP任务DL方法。其目标是让研究人员设计和评估新模型,它包含了常用语义NLP任务模型的参考实现,如语义角色标注,文本引用。

6.2.ParlAI

ParlAI框架是用于对话研究的开源软件平台。它是用Python实现的,其目标是为对话模型的共享,训练和测试提供一个统一的框架。它提供了该领域流行的数据集,并支持多种模型,包括记忆网络、seq2seq和LSTM等神经模型。

3.OpenNMT

OpenNMT工具包是专门序列到序列模型的通用框架。它可以用于执行机器翻译,摘要,图像到文本和语音识别之类的任务。

7.总结:

不可否认的是用于解决NLP问题的DL技术正在持续发展。一个重要的指标就是过去几年在ACLEMNLPEACLNAACL等关键NLP会议上的深度学习论文比例正在提升。

然而,关于端到端学习的研究才刚刚开始。我们仍然使用一些经典的NLP任务来准备数据集,比如清理,标记或统一一些实体(例如URL,数字,电子邮件地址等)。我们也使用通用嵌入,其缺点是不能捕捉到特定领域术语的重要性,而且对于多字表达式来说表现不佳。

8.扩展阅读

有关NLP研究中的深度学习方法的更多信息,我强烈建议你阅读Young等人的优秀论文“ 基于深度学习的自然语言处理的最新趋势 ”。

文章原标题《Deep Learning for NLP,
advancements and trends in 2017》

作者: Javier Couto PM&研究科学家。自然语言处理博士学位

译者:虎说八道,审校:。

文章为简译,更为详细的内容,请查看原文

时间: 2024-12-31 00:17:36

2017深度学习NLP进展与趋势的相关文章

演讲稿丨杨铭 深度学习发展的新趋势

       大家好,我是杨铭.非常荣幸有这样的机会跟大家分享我们对深度学习研究发展新趋势的一些思考和总结,我们将这些新发展的首字母缩写成一个单词MARS.这是和我的同事黄畅博士共同的一些讨论.     简单介绍一下,我是去年夏天加入地平线的,负责软件工程.在此之前我在Facebook人工智能实验室负责人脸识别算法研究和后端系统开发,也曾在NEC美国实验室和徐伟一起工作,学到很多东西.        在谈论深度学习的新趋势之前,我们应该首先明确一下深度学习的定义和它现在的发展状态.非常幸运,学术

2017就在眼前,深度学习有哪十大趋势值得关注?

雷锋网按:本文作者 Carlos E. Perez ,他来自机器学习技术公司 Intuition Machine,主要研究深度学习类型.方法论.以及行业战略. 发布于 Medium 的这篇文章主要对 2017 年深度学习的十大趋势做出了预测,雷锋网(公众号:雷锋网)编译,未经许可不得转载. 作为一名人工智能领域里的圈内人士,上次写科技预测要追溯到 6 年前了,当时我写了一篇"2011 软件开发趋势及预测"的文章,文中对行业做了十点预测,其中六个预测准确,分别是 Javascript V

深度学习并非万能,你用对了吗?

[ 导读 ]深度学习随着AlphaGo大胜李世石之后被"神话",很多人认为深度学习就是挑战人类智力的"神器".可是,深度学习真的如他们想象的那般"战无不胜"吗?本文编译自hyperparameter.space,作者是Pablo Cordero,就读于加利福尼亚大学圣克鲁斯校区,主攻方向为细胞生物学和再生医学背景下的应用机器学习研究.阅读此文后,你便能够从深层理解,为什么深度学习其实并不像普通百姓想象的那般"神"了,甚至,你还

搜狗深度学习技术在广告推荐领域的应用

内容来源:2017年4月17日,搜狗移动搜索广告策略研究组负责人舒鹏在七牛云和QCon联合主办的深度学习论坛"深度学习最新进展与实践"上进行<搜狗深度学习技术在广告推荐领域的应用>演讲分享. 编者按 近来,深度学习成为一个流行词.深度学习可以更好地通过增加数据集的规模来改善学习结果,与传统的机器学习工具相比,深度学习挖掘了神经网络的潜力.基于强大的特征提取,它比其他工具更适合模式识别(图像.文本.音频).深度学习应用的范畴也越来越广.这次搜狗移动搜索广告策略研究组负责人舒鹏

数据科学家必须知道的 10 个深度学习架构

近年来,深度学习的发展势头迅猛,要跟上深度学习的进步速度变得越来越困难了.几乎每一天都有关于深度学习的创新,而大部分的深度学习创新都隐藏在那些发表于ArXiv和Spinger等研究论文中. 本文介绍了部分近期深度学习的进展和创新,以及Keras库中的执行代码,本文还提供了原论文的链接. 简洁起见,本文中只介绍了计算机视觉领域内比较成功的深度学习架构. 另外,文章基于已经掌握了神经网络的知识,并且对Keras已经相当熟悉了的基础.如果你对这些话题还不太了解,强烈建议先阅读以下文章: <Fundam

2017年ACL的四个NLP深度学习趋势 (一):语言结构和词汇嵌入(Linguistic Structure and Word Embeddings)

更多深度文章,请关注:https://yq.aliyun.com/cloud 介绍 在本月初我在温哥华出席的ACL(国际计算语言学协会 (ACL,The Association for Computational Linguistics) )时Joakim Nivre宣布:"NLP正在蓬勃发展".参加人数众多的人士认为,学术界对NLP的兴趣已经处于历史最高点,主要是因为深度学习的成功. 然而,我参加ACL时注意到的一个研究人员的焦虑,因为一个领域正在快速发展转型.研究人员对是否将旧的N

2017年ACL的四个NLP深度学习趋势 (二):可解释性和注意力(Interpretability and Attention)

更多深度文章,请关注:https://yq.aliyun.com/cloud 2017年ACL的四个NLP深度学习趋势 (一):语言结构和词汇嵌入(Linguistic Structure and Word Embeddings) 趋势3:可解释性(Interpretability) 我最近一直在思考可解释性,然而我并不孤单,在深度学习实践者中,神经网络的可怕的"黑匣子"质量使他们难以控制,难以调试.然而,从非研究者的角度来看,有一个更重要的理由要求可解释性:信任. 公众,媒体和一些研

CCAI 2017 | 专访德国语言技术领军者 Hans Uszkoreit:深度学习还不足以解决 NLP 核心问题

会前,我们采访到了大会 Keynote 嘉宾.德国人工智能研究中心科技总监 Hans Uszkoreit 博士. Uszkoreit 博士是中德两国人工智能合作的核心人物,负责德国人工智能研究中心在中国的所有合作项目,今年 3 月,他刚被任命为在北京新成立的人工智能技术中心(AITC)总监兼首席科学家.在访谈中,Uszkoreit 博士谈到了人工智能在工业 4.0 和商业智能上的应用,以及中.美.欧在人工智能领域的差异. 对于他的老本行,Uszkoreit 博士认为,语言技术是人工智能的核心部分

ACL 第一天:Tutorial钟爱深度学习,唯一一个workshop关注女性群体| ACL 2017

雷锋网AI科技评论按:计算机语言学和自然语言处理最顶尖的会议之一ACL 将于2017年7月30日至8月4日在加拿大温哥华举行.雷锋网(公众号:雷锋网) AI 科技评论将赴前线带来一手报道,并对论文及大会概况进行梳理. 今天是预热 tutorial 环节,也是 ACL 会议延续至今的传统,旨在帮助研究领域的新手们了解计算机语言学与自然语言处理的核心技术,同时也会介绍目前这些分领域的一些前沿内容. 今年的 Tutorial 主席是科罗拉多大学的 Jordan Boyd-Grabe 和柏林洪堡大学的