PaperWeekly 第八期

SIGDIAL是ACL所属的关于对话系统的兴趣小组,SIG的文章针对性比较强,但文章的质量良莠不齐,本期给大家精心挑选了4篇SIGDIAL 2016的文章,带着大家一起来看看对话系统最新的研究成果。4篇文章分别是:

1、Joint Online Spoken Language Understanding and Language Modeling with Recurrent Neural Networks, 2016
2、Neural Utterance Ranking Model for Conversational Dialogue Systems, 2016
3、A Context-aware Natural Language Generator for Dialogue Systems, 2016
4、Task Lineages: Dialog State Tracking for Flexible Interaction, 2016

Joint Online Spoken Language Understanding and Language Modeling with Recurrent Neural Networks

1

作者

Bing Liu, Ian Lane

单位

Carnegie Mellon University, Electrical and Computer Engineering

关键词

Spoken Language Understanding, RNN

文章来源

SIGDIAL 2016

问题

如何将自然语言理解的两大问题和语言模型结合在同一个模型中进行训练,以达到实时理解语言的目的?

模型

特定任务下的Chatbot在理解人类语言时需要重点解决好两个问题:意图识别(Intent Detection)和槽填充(Slot Filling),本文提出一种融合Intent Detection、Slot Filling和Language Model的模型,相比于之前的模型,本文模型的一大优势在于做自然语言理解的时候不需要等待整个word sequence完整展现,而是可以在线处理每一个arrived word。如下图:

意图识别是个典型的多分类任务,而槽填充是个典型的序列标注任务。RNN的每个step都以当前word作为输入,输出是意图class、该word的label和下一个word,每个step的隐层都包含了之前所有的word、class、label信息。此模型为基本模型,在此基础上做了一些变形,得到下面四个变种:

文章在Airline Travel Information Systems(ATIS)数据集上进行了实验,在语言模型评测指标和意图识别分类准确率上相比之前的模型都得到了一定地提升。

资源

本文Code: http://speech.sv.cmu.edu/software.html
ATIS Dataset: https://github.com/mesnilgr/is13

简评

本文的创新点在于将意图分类、槽填充和语言模型三者合一,相比之前的独立模型来说,每一步产生的信息更多,在预测下一步的时候context内容更加丰富,从而提高了识别的准确率和降低了语言模型的混乱度。

NLP中的很多任务都可以归纳为根据context来预测某一个word、label或者class这种范式,解决的思路也都基本类似,RNN或者GRU、LSTM作为encoder和decoder,配上attention机制来提升结果,context的信息量和质量直接影响着预测的效果,user information、user profile等等都可能作为context来构建模型,得到更好的结果。

Neural Utterance Ranking Model for Conversational Dialogue Systems2

作者

Michimasa Inaba, Kenichi Takahashi

单位

Hiroshima City University, 3-4-1 Ozukahigashi, Asaminami-ku

关键词

Ranking Model, Utterance Selection

文章来源

SIGDIAL 2016

问题

在做检索式对话时,对话语句该怎样表示,context信息该怎样引入到模型中?

模型

本文实现的是一个检索式的对话模型,模型分为两部分,分别是:
1、Utterance Encoding
检索式对话,对话语句的encoding是很重要的一部分,文中使用了RNN encoder模型来实现对语句的encoding。在训练过程中,作者把encoder生成的向量,在decode成一个目标语句,即通过一个完整的seq2seq模型来训练encoder。
2、Ranking Candidate Utterances
在对候选语句排序时,作者考虑到了context的问题,他把前几次说的语句分别encode成向量,并依次输入到LSTM。如下图所示:

图中u1到un是整个对话中的前n句话,ai是第i个候选语句。模型中,分别把u1…un以及ai分成用户说的和系统本身输出的,在输入到各自的RNN encoder中,得到向量vu1…vu和vai。最后将向量依次输入到RNN中,得到yai作为候选语句ai在当前context中的得分。
因为本文是一个ranking model,更关注的是候选语句的排序,最后候选集分数列表会转换成TOP 1的概率分布。并使用cross-entropy作为loss function。

简评

本文有两个创新点,首先通过单独训练seq2seq模型,来学习对话语句的encoder,从而降低了整个模型的学习成本,减少了需要标注的数据量。然后在排序模型中将对话的前几句语句有序输入到LSTM,达到融入了context信息的目的。

A Context-aware Natural Language Generator for Dialogue Systems3

作者

Ondrej Dusek, Filip Jurcicek

单位

Charles University

关键词

Context-aware, Seq2seq

文章来源

SIGDIAL 2016

问题

如何使得task-oriented的对话生成系统中生成更加自然的回复?

模型

本文是ACL2016 short paper Sequence-to-Sequence Generation for Spoken Dialogue via Deep Syntax Trees and Strings一文的拓展。原文提出基于seq2seq模型的将DA(dialogue acts)生成response的方案,其中输入是三元组(DA type,slot,value)的one-hot representation,输出是对应的response。如下图:

延续原文的工作,作者为了使得生成的回复更加自然,将前面用户的提问也encode进来,具体是在原来模型的基础上加了两个encode的部分。Prepending context是把用户的问题和DA三元组前后拼接成新的表示再feed into encoder(这里要注意问题的dictionary和DA是不一样的)。Context encoder则是把单独把问题encode成和Prepending context相同大小的向量,再将两个encoder得到的向量拼接就得到最后的hidden states。最后decode部分仍然沿用lstm+attention的方法。如下图:

文章在Alex Context NLG Dataset数据集上进行了实验,在BLEU/NIST scores和人工评价两方面成绩都得到了一定地提升。

资源

本文Code: https://github.com/UFAL-DSG/tgen
Alex Context NLG Dataset: https://lindat.mff.cuni.cz/repository/xmlui/handle/11234/1-1675

简评

本文的创新点在于将用户的问题也就是context显式的加入到模型中,相比之前的模型来说,生成的回复会更符合语境。先前的工作旨在将rule-based符号和seq2seq模型结合自动生成回复,本文的改进让一部分context得到保留,使得生成的回复内容更加丰富,从而显得自然不突兀。

Task Lineages: Dialog State Tracking for Flexible Interaction4

作者

Sungjin Lee, Amanda Stent

单位

Yahoo Research

文章来源

SIGDIAL 2016

关键词

complex interactions in spoken dialog system, Task Lineage-based Dialog State Tracking

问题

如何将复杂的判别式模型来做DST,并且应用于复杂场景对话系统?

模型

本文在之前Dialog State Tracking方法的基础上提出了Task Lineage-based Dialog State Tracking(TL—DST)。本模型包括三个组成部分:
1、Task Frame Parsing,返回K-best task frame parses, task frame parses结构如下图:

2、Context Fetching,在不同的phenomena中,根据不同的conversation history返回不同的相关信息。
3、Task State Update,可以通过调节context window参数选择使用不同的dialog state tracking方法。

本文模型(TL-DST)处理流程如下图所示:

在t轮,给定句子u,利用task frame parsing生成K-best task frame parses H,给定task frame f,task lineage l, agent output m,利用context features返回相关信息c。

本文在Dialog State Tracking Challenge 的DSTC2和DSTC3数据集上进行了实验,均取得了较baseline好的结果。

资源

Dialog State Tracking Challenge比赛介绍: https://www.microsoft.com/en-us/research/wp-content/uploads/2016/06/williams2016dstc_overview-1.pdf

简评

本文基于DST的方法来处理口语对话系统中的多任务,跨领域,复杂目标的问题,由于缺乏多任务,跨领域,复杂目标的口语对话系统的数据集,本文实验在DSTC2和DSTC3上进行, 并取得了比baseline好的效果。将来的工作是要将TL-DST方法应用于真实环境中的多领域对话评估。

总结

对话系统(Dialogue Systems)是当前工业界最热门的方向之一,去掉语音部分,该问题退化为聊天机器人(chatbot)问题,两者虽然在输入处理中存在一定的差异,但自然语言理解、对话管理和自然语言生成等核心部件都是一样的,面临的很多问题都是共同的,所以相关的研究或多或少都会有参考意义。上下文(context)的理解和处理是一个重要的环节,直接决定了该bot是智能还是智障,挺多的paper都是针对这一问题进行研究的,但在实际应用当中,context的处理仍然不尽如人意,过多依赖人工设置,更像是一种触发开关,存在大量的if…else…。

seq2seq生成式的解决方案初见效果,但离真正应用还有很长的路要走,template-based和rule-based仍是主流解决方案,尤其是在面向具体任务的bot情景中。那么,直接生成回答很难的话,退一步来想这个问题,能否将seq2seq用在template或者rule的自动生成上?能否将paper中多信息融合(比如:user profile、dialogue context)的成果应用在当前bot的某一个阶段?能否训练一个bot simulator来丰富训练数据?每一篇paper都会有一些创新点,可能有的创新点是为了创新而创新,但总归会带来一定的思考和借鉴,尤其是针对某一个细节问题,我想这是paper对于工业界的参考意义,而不是说从paper中完全抠出一个成熟的解决方案来套,甚至把dataset和code都release出来,典型的“拿来主义”。以上为本期Paperweekly的主要内容,感谢lshowwayzhangjunzhangboyusuhui四位同学的整理。

来源:paperweekly

原文链接

时间: 2025-01-01 17:38:26

PaperWeekly 第八期的相关文章

游戏安全资讯精选 2017年 第八期:从“马甲”到“刷金”,盘点网络游戏的攻击和欺诈,微软“9月周二补丁日”发布81个漏洞补丁,系统优化工具CCleaner被植入后门

  [每周游戏行业DDoS态势]     [游戏安全动态] 从"马甲"到"刷金",盘点网络游戏的攻击和欺诈.点击查看原文     概要:对网络游戏的攻击有两大目的,除了暴利之外,黑客的曝光和名声也是驱动因素.对网络游戏攻击的常见方式有:虚假注册(Phantom Registrations)."马甲攻击"(Sock Puppet):论坛或社区用户通过"马甲"假装成另外一个人参与有关自己及自己作品的讨论或者评论:大规模钓鱼攻击:木

金融安全资讯精选 2017年第八期:Equifax数据泄露事件本周五个进展,企业用户如何使用SOC 2 报告来评估CSP安全性,Alert Logic发布云安全报告:云上发生安全事件数更少

   [金融安全动态] Equifax数据泄露事件本周五个进展.点击查看原文 点评:上周我们提到,Equifax泄露的信息包括用户社会安全码.驾照信息.生日信息.信用卡数据等.据SEC(U.S. Securities and Exchange Commission)的文件,三位Euifax董事已经售出了"一小部分"所持股票.和Equifax可能受到的处罚(链接).   从上周三到今天,Equifax事件有5个新披露的进展.   首先,CIO辞职.Equifax首席安全官员Susan M

开发者论坛一周精粹(第十八期) :第一期阿里云高校工作坊申办启动

第十八期(2017年8月7日-2017年8月13日 ) 阿里云高校工作坊是针对大学生推出的众包活动形式,云翼计划 的用户,可申请承办阿里云官方授权的校园活动.通过承办活动,将学校内对云计算感兴趣的同学聚集在一起,沉淀为高校泛技术分享社区. 第一期阿里云高校工作坊申办启动 https://bbs.aliyun.com/read/324006.html [漏洞公告]ThinkPHP缓存函数设计缺陷导致Getshell漏洞 https://bbs.aliyun.com/read/324044.html

PaperWeekly 第36期 | Seq2Seq有哪些不为人知的有趣应用?

引言 Seq2Seq 于 2013年.2014 年被多位学者共同提出,在机器翻译任务中取得了非常显著的效果,随后提出的 attention 模型更是将 Seq2Seq 推上了神坛,Seq2Seq+attention 的组合横扫了非常多的任务,只需要给定足够数量的 input-output pairs,通过设计两端的 sequence 模型和 attention 模型,就可以训练出一个不错的模型.除了应用在机器翻译任务中,其他很多的文本生成任务都可以基于 Seq2Seq 模型来做,比如:文本摘要生

中国大数据论坛第八期教育成都沙龙成功

本文讲的是中国大数据论坛第八期教育成都沙龙成功,2015年8月11日下午以"当前智慧教育及教育大数据应用的成功实践及前沿技术趋势"为议题的大数据助力智慧教育--<中国大数据论坛>第八期 教育大数据成都专场沙龙走进成都博康智慧城市信息技术有限公司,在成都市高新区天府大道中段萃华路89号 成都国际科技节能大厦A座3楼圆满举办.出席本次会议的有:中国信息协会大数据分会秘书长郑宏.崇州市人民政府市长助理叶志俊.博康智慧城市信息技术有限公司总经理董学礼.乐山职业技术学院副院长刘忠.中

开发者论坛一周精粹(第八期):WP 使用 FastCGI Cache 实现高效页面缓存

第八期(2017年5月8日-2017年5月14日 ) 页面缓存(Page Cache)是 WordPress 性能优化比较重要的一环,目前 WP 有很多页面缓存插件:W3 Total Cache.WP Super Cache.Comet Cache 等,不过它们都是 务器软件 -- PHP -- WP缓存插件 -- 本地或对象缓存,差不多要经过四个阶段,在高并发下效率是很低的. 使用 FastCGI Cache 实现高效页面缓存 作者:ivmmff [企业IT管理员必读]WanaCrypt0r

暴走大事件第八期 - 我和我的小伙伴们都惊呆了,王尼玛带你盘点时下大事件

class="post_content" itemprop="articleBody"> 高考过去了,挂科还会远吗?大学毕业了,失业还会远吗?当学生真不容易:校长随身带套,室友随身带刀,四十二度没空调!!王尼玛带你盘点时下大事件-- 相关阅读:暴走大事件第七期 – 人之初,性冷淡,王尼玛盘点社会各种无节操"大事件" 暴走大事件第八期 -- 我和我的小伙伴们都惊呆了!!

【知云】第八期:海量视频存储如何降成本?阿里云低频存储来帮忙

摘要:我们知道直播平台往往会产生非常多的视频文件,这些视频存储会带来高昂的存储费用,那有没有什么解决方案可以有效降低费用呢?本文中阿里云布道师游圣将与大家分享直播平台如何借助阿里云解决方案降低视频存储成本. 想要看视频版?请点击这里:[知云]降成本-低频存储 针对于直播平台降低视频存储的成本这一用户痛点,阿里云有一整套针对于视频文件降低存储成本的解决方案,阿里云的解决方案如下图所示. 这是一个标准的视频平台示意图,主播通过PC端或者集成了SDK的手机端上传视频,视频数据通过CDN边缘节点加速,推

惠惠网发布第八期《网购价格不完全报告》

惠惠网今天发布了第八期<网购价格不完全报告>,报告统计了 274 个商城的 30 余万商品在 2012 年 12 月份的公开信息.统计结果显示,2012 年 12 月网购http://www.aliyun.com/zixun/aggregation/31945.html">商品价格相比 2012 年 11 月持续小幅下降. 流量方面,凡客诚品由于在 12 月开展了力度很强的降价促销活动(1 元内衣.9 元运动鞋--),吸引了大量用户下单.12 月凡客的流量相比 11 月上涨了