层叠注意力模型 - 实现机器阅读的正确姿势 | 论文访谈间 #04

通过搜索引擎我们可以轻松获取到海量的知识,可我们通常不会觉得一台电脑“知识渊博”——计算机并不理解这些知识,只能给你一系列相匹配的检索结果。在我们眼中,计算机更像是一座高级的图书馆,而不是一位能理解你所想所问的博学之士。

好消息是这一点正在逐渐改善。机器阅读理解,一项致力于教会机器阅读人类的语言并理解其内涵的研究,作为目前自然语言处理领域中的热门方向受到了广泛关注。与传统的问答系统不同的是,阅读理解任务更注重于对于篇章文本的理解,机器必须自己从篇章中学习到相关信息,而不是利用预设好的世界知识、常识来回答问题,所以更具有挑战性。目前 Google DeepMind、Facebook AI Lab、IBM Watson、微软、斯坦福大学(Stanford)、卡内基梅隆大学(CMU)等知名研究机构都都纷纷投入到相关研究当中。

训练机器去阅读理解人类语言的方法,和训练人类阅读外语的方法有很多相似之处,其中一个重要的手段就是填空型阅读理解。机器会看到一段文本片段,并需要回答若干问题,问题的答案就出现在这段文本当中。例如:

我们在做这样的阅读题的时候常常会发现,一口气读完文章然后仅凭着对文章的印象答题可不是一个好做法,通常需要在看了问题之后再回到文章特定的地方找答案。对机器来说也是这样,目前的大多数模型都有一个注意力机制,在看了不同的问题之后,模型会把注意力放在篇章的不同部分,从而得到更精准的答案。

来自哈工大讯飞联合实验室(HFL)的崔一鸣、陈致鹏、魏思、王士进、刘挺老师和胡国平把问题想得更深了一步。他们发现此前的研究都只把问题看作一个整体,或者只考虑了问题对篇章的影响,没有仔细考虑篇章对问题的影响,而模型实际上可以利用更多的篇章-问题之间的交互信息。他们设计了新的层叠式注意力(Attention-over-Attention),对问题进行了更细致的拆解,而不是简单将其看做成一个整体,把阅读理解的研究提高到了一个全新的水平。他们的论文 Attention-over-Attention Neural Networks for Reading Comprehension 发表在了 2017 年的计算语言学会(ACL2017)上。

论文的作者崔一鸣高兴地向我们介绍,“相比于前人工作,本文提出的模型结构相对简单且不需要设置额外的手工超参数,并且模型中的某些结构具有一定的通用性,可应用在其他相关的任务当中。实验结果表明,在公开数据集 CNN、CBT-NE/CN 数据集上,我们的模型显著优于其他基线模型,并且达到了 state-of-the-art(当前最先进)的效果。”

那么这个“层叠式注意力”究竟是怎么回事呢?崔一鸣举了一个简单的例子。假设我们遇到了一个填空题,“Tom loves ___.”,模型会做以下几步:

1. 将篇章及问题通过词向量映射以及循环神经网络(RNN)的建模,得到包含上下文信息的文本表示;

2. 对篇章和问题中的每个词两两计算“匹配度”;

3. 根据匹配度计算出每个问题词的相关程度,即对于这篇文章来说,问题中的关键词是什么(表中第一行);

4. 对问题中的每个词计算篇章中可能的候选(表中第二行,这里节选了三个候选词:Mary、him、beside)

鉴于不同问题词的贡献不同,求得他们的加权得分再合并,得到每个候选词的最终得分,从而找出适合填入空缺中的词(表中第四行)。

崔一鸣进一步解释道,“如果我们将问题看做一个整体,只计算一次 attention 的话,答错的几率就会大一些,通过将问题拆解,并赋予不同权重则会将风险分摊到每个词上,从整体上降低答错的概率。”在上面的例子中,如果不考虑每个问题词的相关度,直接对候选词的得分求平均,就会得出“Tom loves him.”这样的错误答案。选择“him”虽然同样符合语法,但结合篇章可以看出填入 Mary 更合理。

▲ Attention-over-Attention Neural Network 的模型结构图

谈到后续工作和阅读理解未来的发展,崔一鸣也与我们分享了一些看法:

“尽管近一两年来机器阅读理解的研究突飞猛进,相关神经网络模型层出不穷,但对于机器阅读理解的终极目标来说,现在还只是万里长征的开始。根据我们对目前的阅读理解数据集的详细分析,在这些公开数据集中的大多数问题都属于单句推理的问题,即回答问题只需找到文中的一个关键句即可。如何能够从错综复杂的线索以及前因后果中找到问题的答案,这对于目前的阅读理解技术来说还是相对困难的。相比于机器,人类的一大优势是能够通过多个线索来推理得到问题的答案,这是目前机器阅读理解非常薄弱的地方。如果我们真的希望机器能够‘能听会说,能理解会思考’,那么对文本的更深层次的归纳、总结、推理是未来机器阅读理解不可缺少的一部分,也是今后这项研究必须攻克的难关。不过我们相信随着阅读理解研究的逐步推进,这个问题会逐步得到改进。”

来源:paperweekly

原文链接

时间: 2024-10-27 03:17:36

层叠注意力模型 - 实现机器阅读的正确姿势 | 论文访谈间 #04的相关文章

别躲了,机器知道你们的关系 | 论文访谈间 #05

每天人们都在和形形色色的社交网站打交道,微信,微博,知乎等等.在不同的社交网站上,人们通过加好友,关注,互粉等功能建立了联系,形成了一张张巨大的社交网络.而在这些联系背后,往往蕴含着不同的含义.例如,很多原因可能使得我们成为社交网络上的好友:亲人关系,朋友关系,同事关系,或者仅仅是有着相同的兴趣爱好.如同在生活中一样,在社交网络上,我们也扮演着不同的角色,与他人维系着不同的关系.那么,机器如何能分辨出扮演不同角色的你?又如何知道你们之间不同的关系呢?今天,ACL2017 上清华大学涂存超博士等人

心慕手追,让机器像人一样理解句子 | 论文访谈间 #14

学习句子的语义表示就是将句子的含义映射到一个向量空间中,同时保留句子本身的一些特性,例如:表达相似含义的句子在向量空间中应该距离更近.而句子表示模型是将句子的含义编码为计算机可以理解的形式,这是解决大部分自然语言处理问题的先决条件,因此直接影响了许多自然语言处理任务的性能,如在神经机器翻译中需要首先将源语言句子表示为一个向量.在问答系统中需要将问句和答案编码为向量表示等. 但是句子是由不同的词构成的,不同的词包含的信息量不同,对句子的语义表示影响也就不同.如何能区分出这些词汇,给予重要的词更多的

“嘿,机器,你是怎么做好翻译的呀?” “来,我画给你看!” | 论文访谈间 #01

如果有一个功能神奇的"黑箱子",你想不想打开它,好好研究一番?神经机器翻译就是这么一个"黑盒",只要给它一句中文,就能将对应的英文顺利地翻译出来,如何才能一探其中的究竟呢?清华大学的丁延卓同学.刘洋老师.栾焕博老师和孙茂松老师在今年 ACL2017 上的工作就将这其中的奥秘"画给你看". 近年来,深度学习快速发展,神经机器翻译(Neural Machine Translation)方法已经取得了比传统的统计机器翻译(Statistical Mac

如何让机器拥有人类的智慧?| 论文访谈间 #09

在神经机器翻译(Neural Machine Translation, NMT)中,由于机器不具有人类的智慧,因此常常会犯一些低级的错误.例如,在中-英翻译中,原中文句子含有 10 个词,而机器却有时翻译出一个含有 50 个词的句子或者是只含有 2 个词的句子. 不管内容如何,在人类看来这样的翻译很显然是不对的.那么如何能让机器拥有人类的智慧,从而避免这种低级的错误呢?近日,我们有幸采访到了清华大学的张嘉成,介绍他发表在 ACL2017 上的工作 - Prior Knowledge Integr

《中国人工智能学会通讯》——7.8 什么是机器阅读理解

7.8 什么是机器阅读理解 阅读理解对大部分人来说都不陌生.我们大都参加过高考,在大学里可能也都参加过四 / 六级英语考试,在语文.历史.地理等考试中阅读理解的题型经常出现.维基百科对于阅读理解的定义是:阅读理解是一种阅读一段文本并且对其进行分析,并能理解其中的意思的能力.而机器阅读理解顾名思义就是让机器具备文本阅读的能力,准确理解文本的语义,并正确回答给定的问题. 阅读理解任务中有三个核心的组成部分,一个是文档:还有一个是问题:最后一个是选项.其中文档通常为给定的一篇文档或者几段文本.而问题根

PaperWeekly 第十九期 --- 新文解读(情感分析、机器阅读理解、知识图谱、文本分类)

引 本期的PaperWeekly一共分享四篇最近arXiv上发布的高质量paper,包括:情感分析.机器阅读理解.知识图谱.文本分类.人工智能及其相关研究日新月异,本文将带着大家了解一下以上四个研究方向都有哪些最新进展.四篇paper分别是: 1.Linguistically Regularized LSTMs for Sentiment Classification, 2016.11 2.End-to-End Answer Chunk Extraction and Ranking for Re

深度学习下一个大突破:机器阅读

机器阅读将是深度学习的下一个重大进展 回顾2016年,深度学习在应用领域取得了三个重大进展. 1. Google DeepMind 的 AlphaGo,战胜了人类顶级围棋高手. 2. Google Translate 上线,达到了与人类媲美的精度. 3. Tesla 的 AutoPilot 投入使用,让自动导航成为大众使用的日常工具. 展望2017年,深度学习在应用领域将会有新的突破,其中一大看点,就是机器阅读. 书籍是人类文明的主要传承工具.让机器掌握自动阅读的能力,将会颠覆性地降低知识传承和

《中国人工智能学会通讯》——7.9 机器阅读理解评测数据集

7.9 机器阅读理解评测数据集 现阶段,和阅读理解相关的数据集主要有以下五个. 1 . MCTest 微 软 研 究 院 的 研 究 员 Richardson et al [1] 在2013 年的 EMNLP 上发布了一个数据集.在这个数据集中,所有的文档都是一些叙述性的故事.它考察的推理能力被限定于一个 7 岁儿童可以接受的范围内,包含有许多常识性的推理,这些推理既包含事实性的,也包含非事实性的.这个数据集包含有两部分,一个是 MC160,还有一个是 MC500,分别包含 160 篇和 500

企业应用快速跨向容器时代的正确姿势

本文讲的是企业应用快速跨向容器时代的正确姿势[编者的话]文章以通俗易懂的方式详细解读容器的诞生.容器的管理以及容器如何对应打包等问题. 云计算的发展脉络 云计算整个发展过程,用一句话来形容,就是"分久必合,合久必分". 容器的诞生 云计算解决了基础资源层的弹性伸缩,却没有解决 PaaS层应用随基础资源层弹性伸缩而带来的批量.快速部署问题.于是容器应运而生. 容器是 Container,Container另一个意思是集装箱,其实容器的思想就是要变成软件交付的集装箱.集装箱的特点,一是打包