PaperWeekly 第二期


图片来自paper The Dialog State Tracking Challenge Series- A Review

人机对话系统通常包括上面的几个部分,task-oriented chatbot重点关注的是DST和NLG问题,其中DST是核心问题,没有太多关注这个比赛,但个人理解DST的作用类似于一张user conversation logs状态表,记录着用户当前的状态,以订机票为例,这张表的key是预先设定好的slots,比如目的地、出发地、出发时间等等,与系统背后的业务数据表中的attributes相关联,不断地从user conversation中抽取相应的values来填充这个表格,或者将其定义为一个多分类任务,不断地从对话中判断这句话中包括哪些slots和values(这里的values是多个分类结果),当状态表中的信息存在空白时,bot会根据空白的slots来提问并获取values,直到获取到足够的slots,给出用户suggestion,或者进行相应的服务。

DST的问题解决之后,就是NLG的问题。传统的NLG采用rule-based或者template-based的方法,需要很多的手动设置,横向扩展性较差,维护成本高。最近流行的end-to-end方案很适合解决这个问题,给定用户的query,结合着当前DST,自动生成response,完全的data driven,不需要什么人工干预。

生成response除了rule-based和end-to-end的方法之外,工业界中更加常见的是retrieve-based的方法,即从庞大的example base中进行retrieve,一方面避免了NLG生成response时常遇到的grammatical问题,另一方面当前的IR技术很容易集成到此类bot系统中,降低了门槛。

本期的三篇paper中前两篇都是关于task-oriented bot的NLG问题,第三篇是在retrieve-based bot的每个细小环节中应用了deep learning技术,并且将外部的非结构化文本作为数据源,从中select responses。

Semantically Conditioned LSTM-based Natural Language Generation for Spoken Dialogue Systems

关键词:NLG、bot、自定义LSTM

来源:EMNLP 2015

问题:task-oriented bot NLG问题,给定了user query和DST,如何生成一个更好的response?

方法:

首先定义了两个概念delexicalisation和lexicalisation,前一个的意思是将句子中的slot-value用特定的token来替换,像是一种抽象,比如用food来代替对话中的各种食物名称;后一个的意思是将句子中的特定token还原回具体的value。

本文最大的亮点在于将传统的LSTM重新定义,针对这个具体问题在LSTM cell部分中添加了一层,Dialogue Act Cell,通过gate机制来保留合适的信息,比如slot keywords,如下图:

这一层cell更像是一个keyword detectors,整个NLG仍是采用encoder-decoder框架。

评论:

这层Dialogue Act Cell的目的是确保在decoding部分,不会遗漏任何一个slot,所以专门增加了一层cell来encoding act、slot-value信息,在生成时作为context vector。我觉得model的这个设计与attention机制有一点类似,只是attention更加地平滑,对每个word都有一个weight,而不是本文中的gate,非0即1。整体来说,自定义的cell是一个很有启发性的思路,针对具体问题的特点,修改现有的cell结构,也许会起到非常关键的作用。

Natural Language Generation in Dialogue using Lexicalized and Delexicalized Data

关键词:NLG、bot、自定义LSTM

来源:arXiv 2016.06.11 cs.CL

问题:task-oriented bot NLG问题,是第一篇的升级版。

方法:

本文是针对第一篇文章进行的改进版,改进的地方在于不仅仅利用了delexicalisation进行训练,而且利用了lexicalisation数据,从而提高了准确率,基本的模型框架与第一篇文章类似,不同的在于输入的处理,就是dialogue act的表示,如下图:

每一个act representation由两部分组成,一部分是act、slots的one-hot表示,与文章一类似的结构,另一部分是由value的每个word embedding组合而成。

task-oriented bot NLG存在的一个更加现实的问题是data规模太小,cover的features太少,生成质量不高,本文针对这一问题,用相似domain的、大量的reviews或者其他相关数据作为corpus预训练出一个效果不错的LM,在decoding部分采用预训练好的LM模型权重进行NLG。

评论:

本文中最值得借鉴的地方在于transfer learning,虽然DL效果很好,但实际应用中常常遇到data规模太小的问题,DL难以发挥作用,但如果从大量相似的domain data中学习一些表示模型,然后迁移到待解决的问题上,这是一件幸事,也就是人们常说的举一反三。混合大量的相似domain数据,会cover到更丰富的features,为DL提供了广阔的舞台。

DocChat: An Information Retrieval Approach for Chatbot Engines Using Unstructured Documents

关键词:Retrieve-Based Bot,Unstructured Documents

来源:ACL 2016

问题:如何从大量非结构化文本中select出合适的response返回给用户?

方法:

本文研究的问题是给定大量的非结构化的documents和用户的query,从中选择并返回一个满意的response,典型的IR问题,作者将解决方案分为三步:

1、response检索,根据query,从documents中找到合适的N句话作为候选。

2、response排序,将候选中的utterances进行排序。

本文大多数的工作在ranking model上,提出了7种level的features来对candidate进行打分,通过实验发现sentence-level feature最有区分度。

3、response触发,并不是一定可以从documents找到合适的response,所以最后添加一个分类器,来判断最优的response是否合适,合适则输出,不合适则输出空。

评论:

本文解决的问题思路比较简单,但中间用到了很多复杂的DL model,个人感觉有点杀鸡用牛刀。本文的思路更加适合informative式的query,并不适合娱乐和闲聊。但用外部知识,尤其是大量的非结构化的、可能还带有噪声的资源来提供response,是一个很不错的思路,弥补了只用training data或者很有限的examples存在的局限性问题,如果可以将两者进行结合,是一个非常好的实用方案。

Tips

引起大家的讨论是一件挺难的事情,所以这一期不再提出问题。之前有同学问如何读paper,这里简单分享一个简单的tip,后续的每一期可能都会分享一个tip。

1、如果刚刚进入一个领域,建议读一些这个领域的survey或review类型的paper,这类型的paper基本上会将最近的方法归类进行总结,从一个较高的层次来解读每一篇paper的贡献和优缺点,对快速了解一个领域很有帮助。如果你关注的这个领域没有survey,那么恭喜你,说明你可能走到了前沿,用关键词去google一篇或者几篇相关的new paper,读Related Work那一节,相信你会有所收获。(注:这个方法是从清华大学刘知远博士那里学来的)

来源:paperweekly

原文链接

时间: 2024-09-20 06:32:27

PaperWeekly 第二期的相关文章

(转)PaperWeekly 第二十二期---Image Caption任务综述

本文转自:http://mp.weixin.qq.com/s?__biz=MzIwMTc4ODE0Mw==&mid=2247484014&idx=1&sn=4a053986f5dc8abb45097fed169465fa&chksm=96e9ddeea19e54f83b717d63029a12715c238de8d6af261fa64af2d9b949480e685b8c283dda&scene=21#wechat_redirect   PaperWeekly 第二

PaperWeekly 第二十二期---Image Caption任务综述

引言 Image Caption是一个融合计算机视觉.自然语言处理和机器学习的综合问题,它类似于翻译一副图片为一段描述文字.该任务对于人类来说非常容易,但是对于机器却非常具有挑战性,它不仅需要利用模型去理解图片的内容并且还需要用自然语言去表达它们之间的关系.除此之外,模型还需要能够抓住图像的语义信息,并且生成人类可读的句子. 随着机器翻译和大数据的兴起,出现了Image Caption的研究浪潮.当前大多数的Image Caption方法基于encoder-decoder模型.其中encoder

PaperWeekly 第十二期---文本摘要

引 文本摘要是自然语言处理的一大经典任务,研究的历史比较长.随着目前互联网生产出的文本数据越来越多,文本信息过载问题越来越严重,对各类文本进行一个"降维"处理显得非常必要,文本摘要便是其中一个重要的手段.传统的文本摘要方法,不管是句子级别.单文档还是多文档摘要,都严重依赖特征工程,随着深度学习的流行尤其是seq2seq+attention模型在机器翻译领域中的突破,文本摘要任务也迎来了一种全新的思路.本期PaperWeekly将会分享4篇在这方面做得非常出色的paper: 1.A Ne

PaperWeekly 第二十五期 --- 增强学习在image caption任务上的应用

引言 第二十二期的PaperWeekly对Image Captioning进行了综述.今天这篇文章中,我们会介绍一些近期的工作.(如果你对Image Captioning这个任务不熟悉的话,请移步二十二期PaperWeekly 第二十二期---Image Caption任务综述) Image Captioning的模型一般是encoder-decoder的模型.模型对$p(S|I)$进行建模,$S$是描述,$I$是图片.模型的训练目标是最大化log似然:$\max_\theta\sum_i \l

ColdFusionMX技术课程第二期

ColdFusionMX技术课程的第二期,主要覆盖CF的List和Array.对于这两部分,是我们开发CF应用中经常要用到的,但是对于经常用到的部分,我反而没有多说,在这个第二课的内容中,我希望各位能够读到让你们眼前一亮的部分,如果有,就证明我达到目的了,如果没有,证明这部分技术你已经没问题了,包括参加全球考试. 点此浏览教程 ColdFusionMX第二课

PaperWeekly 第39期 | 从PM到GAN - LSTM之父Schmidhuber横跨22年的怨念

作者丨郑华滨 学校丨中山大学硕士生 研究方向丨GAN,文本生成,OCR 知乎专栏丨AI带路党 前段时间我受极视角邀请,在斗鱼上直播分享有关 GAN 的话题.考虑到现在网上关于 GAN 的文章.视频都已经非常多了,所以我就故意选择了一个之前没有什么人讲过的主题:LSTM 之父 Schmidhuber 与 GAN 之间的恩怨纠葛.其实这件事在英文网上传播得还挺广,而且除了八卦之外也有一些严肃的学术讨论,可惜相关的中文信息寥寥,不过这样倒正好给我一个机会来给大家介绍一些新内容. 其实相比视频直播我还是

开发者论坛一周精粹(第十二期):如何通过快照的瘦身和删除来节省储存费用

第十二期(2017年6月23日-2017年6月30日 ) 阿里云快照的帮助文档里面有一篇<删除快照和自动快照策略>,其实可以通过这个引导来达到节省费用的目的. 当您不再需要某个快照.或者快照个数超出额度的时候,您需要删除一部分快照释放空间. 如何通过快照的瘦身和删除来节省储存费用 Https://bbs.aliyun.com/read/320656.html 常见快照使用场景和如何最大限度降低快照费用 Https://bbs.aliyun.com/read/320654.html 码栈云机重定

PaperWeekly 第43期 | 教机器学习编程

作者丨赵越 学校丨北卡罗莱纳州立大学博士生 研究方向丨编译器,程序语言 随着深度学习的发展,人工智能迎来了新一轮的热潮.在图像处理和自然语言处理方面,深度学习已经展现出强大的能力,成为了这些领域的主流方法.与此同时,深度学习也在编程领域开始得到应用.毕竟广义上,编程本身就是人工智能的一部分,机器如果可以学会自动编写程序,那么人工智能岂不是可以实现自举了?  在最近的新闻报道中,大家也会时不时看到一些报道说某个研究可以实现自动编程,甚至任务在不远的将来机器会代替代程序员的工作.实际情况是什么样的呢

PaperWeekly 第二十三期 --- 机器写诗

引言 什么是艺术? 机器的作品能否叫艺术? 机器能否取代艺术家? 这些问题,相信不同的人,会有不同的答案.很多人认为机器生成的作品只是简单的模仿人类,没有创造性可言,但是人类艺术家,不也是从模仿和学习开始的吗?本文是一篇机器诗歌生成的综述文章,希望能增进大家对这个领域的了解. 基于传统方法的诗歌生成 诗歌是人类文学皇冠上的明珠.我国自<诗经>以后,两千年来的诗篇灿若繁星.让机器自动生成诗歌,一直是人工智能领域一个有挑战性的工作.机器诗歌生成的工作,始于20世纪70年代.传统的诗歌生成方法,主要