A Neural Network Approach to Context-Sensitive Generation of

本文分享的这篇paper是旨在训练一个data driven open-domain的bot,在生成response的时候不仅仅考虑user message(query),而且考虑past history作为context。paper的题目是A Neural Network Approach to Context-Sensitive Generation of Conversational Responses,作者来自蒙特利尔大学、乔治亚理工、facebook和微软研究院,本文最早发于2015年6月。

开放域的端到端response生成在今年已经不是什么新鲜事了,各种复杂的网络,考虑各种各样的信息,然而在去年的这个时候,本文就提出了一种data driven的解决方案,是一篇有开创性的paper。

bot的几大核心问题,包括:

1、response generation(或者selection)

2、dialogue state tracking

3、user modeling

不管是开域的还是闭域的bot都需要解决好以上三个问题才能做出一个高质量的bot。本文针对的问题是第一个,用的思路也是现在看来比较自然的一种,用语言模型来生成response。

考虑history utterances的responses生成问题,先定义一些参数,m表示message(query),c表示context,r表示response。本文要解决的其实是下面这个问题:

1、Tripled Language Model

将c,m,r作为一句话来理解,给定c和m之后,不断地生成r的内容。
这个模型存在一个比较严重的问题是c如果过长的话,用BPTT训练不了RNNLM。(其实换作LSTM或者GRU单元就会好很多。)

2、Dynamic-Context Generative Model I

将c和m用词袋模型表示,然后拼接起来,作为输入,通过一个简单的FNN,得到输出,即c和m vector representation。

3、Dynamic-Context Generative Model II

与2不同的地方在于,将c和m单独作为输入,通过一个简单的FNN,得到c和m的vector representation。

这篇paper针对的问题很有意义,history information的建模对于bot在解决实际工程应用的时候意义重大,会让你的bot看起来更加的智能,和分析了用户日志的web应用会带来更好的服务是一个道理。本文的将具体的context包含到了模型中,在真正应用的时候,离线系统根据user conversation logs build一个user profile会更加实用,因为确实不可能把所有的history都丢到模型中一起来算。

来源:paperweekly

原文链接

时间: 2024-10-29 17:43:19

A Neural Network Approach to Context-Sensitive Generation of的相关文章

(zhuan) Recurrent Neural Network

  Recurrent Neural Network  2016年07月01日  Deep learning  Deep learning 字数:24235   this blog from: http://jxgu.cc/blog/recent-advances-in-RNN.html    References Robert Dionne Neural Network Paper Notes Baisc Improvements 20170326 Learning Simpler Langu

论文笔记之:Progressive Neural Network Google DeepMind

  Progressive Neural Network  Google DeepMind   摘要:学习去解决任务的复杂序列 --- 结合 transfer (迁移),并且避免 catastrophic forgetting (灾难性遗忘) --- 对于达到 human-level intelligence 仍然是一个关键性的难题.本文提出的 progressive networks approach 朝这个方向迈了一大步:他们对 forgetting 免疫,并且可以结合 prior know

(转)The Neural Network Zoo

  转自:http://www.asimovinstitute.org/neural-network-zoo/     THE NEURAL NETWORK ZOO POSTED ON SEPTEMBER 14, 2016 BY FJODOR VAN VEEN   With new neural network architectures popping up every now and then, it's hard to keep track of them all. Knowing all

(转)LSTM NEURAL NETWORK FOR TIME SERIES PREDICTION

  LSTM NEURAL NETWORK FOR TIME SERIES PREDICTION Wed 21st Dec 2016   Neural Networks these days are the "go to" thing when talking about new fads in machine learning. As such, there's a plethora of courses and tutorials out there on the basic va

(zhuan) LSTM Neural Network for Time Series Prediction

LSTM Neural Network for Time Series Prediction  Wed 21st Dec 2016 Neural Networks these days are the "go to" thing when talking about new fads in machine learning. As such, there's a plethora of courses and tutorials out there on the basic vanil

论文笔记之:Hybrid computing using a neural network with dynamic external memory

  Hybrid computing using a neural network with dynamic external memory Nature  2016    原文链接:http://www.nature.com/nature/journal/vaop/ncurrent/pdf/nature20101.pdf    摘要:人工智能神经网络 在感知处理,序列学习,强化学习领域得到了非常大的成功,但是限制于其表示变量和数据结构的能力,长时间存储知识的能力,因为其缺少一个额外的记忆单元.

论文笔记之:Decoupled Deep Neural Network for Semi-supervised Semantic Segmentation

  Decoupled Deep Neural Network for Semi-supervised Semantic Segmentation   xx  

awesome-nlp

  awesome-nlp  A curated list of resources dedicated to Natural Language Processing Maintainers - Keon Kim, Martin Park Please read the contribution guidelines before contributing. Please feel free to pull requests, or email Martin Park (sp3005@nyu.e

首发!三角兽被 EMNLP 录取论文精华导读:基于对抗学习的生成式对话模型浅说

雷锋网按:近日,三角兽科技 AI Lab 的一篇论文,被世界顶级自然语言处理会议 EMNLP 高分录取,论文题目为:Neural Response Generation via GAN with an Approximate Embedding Layer,由三角兽研究团队与哈工大 ITNLP 实验室合作完成.论文中提出了一种新的对话文本对抗生成学习框架,目的是解决文本生成过程中的采样操作带来的误差无法反向传导的实际问题,从而实现基于对抗学习的聊天回复生成模型. 以下为三角兽研究团队所写的论文精