[New Paper]Neural Network-Based Abstract Generation for Opinions

本篇将会分享的是一篇工程性比较强的paper,如果您想做一个实实在在的意见摘要系统(比如:淘宝商品评论摘要、电影评论摘要)的话,可以仔细研读下本文的解决方案。本文的题目是Neural Network-Based Abstract Generation for Opinions and Arguments,于6月9日submit于arxiv上。作者是来自美国东北大学的Lu Wang助教。

关于自动文摘,之前写过一系列的文章,包含了自动文摘的方方面面以及近期的一些相关paper的详细描述。本文的自动文摘问题是一个多评论摘要问题,用的是abstractive方法,而非简单的extractive方法,就是说从多个评论中总结出观点。

本文模型的主题框架仍是seq2seq+attention,最主要的不同之处是输入包括多个文本序列,而是之前介绍的单文本序列。这里,seq2seq+attention的思路不再赘述,主要讲一下不同的地方。

为了套用seq2seq,本文将多文本拼接成单文本,中间用特殊的标记SEG隔开。但是如果只是简单的套用seq2seq的话,会存在以下两个问题:

1、seq2seq对序列的顺序非常敏感,多个文本排列的顺序对结果的影响比较大。

2、多篇评论包括的词会比较多,会导致在计算attention的时候花费更大的时间代价。

本文用了子采样(sub-sampling)的方法来解决上面的问题,首先给原始输入中的每个评论定义importance score,然后归一化,最后从原始输入中进行多项分布采样,获得K个候选sample作为seq2seq的输入数据,进行训练。本文针对importance score建立了一个回归模型,使用了一些人工feature作为输入进行回归打分。这些feature如下表所示:

包括了词的数量,命名实体的数量,tf-idf平均数和最大数等8个feature作为输入。通过学习这个回归模型,来计算给定评论的分数。

最后给大家展示一个结果图:

本文在模型上创新的点并不突出,最不同以往的地方便是用了人工feature来给每个评论打分,给原始输入中的评论进行排序,然后多项分布采样,子采样的过程是一个降维的过程,保留了原始数据中最重要的部分,去掉了冗余的信息。可以说本文是将人工features添加到abstractive来提升纯粹的seq2seq模型性能,针对了多文档摘要问题的特点,给出了一个实用性较强的思路。如果从模型角度来说,新的东西没有太多,而且可改进的地方有很多,比如打分模型,可以用sentence representation的思路来做,完全可以避免用人工feature这种比较low的思路,做成一个data-driven的打分模型;再比如,不用打分,而是采用CNN从多个评论中提取出最有用的feature作为输入。

来源:paperweekly

原文链接

时间: 2024-11-01 01:11:57

[New Paper]Neural Network-Based Abstract Generation for Opinions的相关文章

(zhuan) Recurrent Neural Network

  Recurrent Neural Network  2016年07月01日  Deep learning  Deep learning 字数:24235   this blog from: http://jxgu.cc/blog/recent-advances-in-RNN.html    References Robert Dionne Neural Network Paper Notes Baisc Improvements 20170326 Learning Simpler Langu

A Neural Network Approach to Context-Sensitive Generation of

本文分享的这篇paper是旨在训练一个data driven open-domain的bot,在生成response的时候不仅仅考虑user message(query),而且考虑past history作为context.paper的题目是A Neural Network Approach to Context-Sensitive Generation of Conversational Responses,作者来自蒙特利尔大学.乔治亚理工.facebook和微软研究院,本文最早发于2015年

(转)The Neural Network Zoo

  转自:http://www.asimovinstitute.org/neural-network-zoo/     THE NEURAL NETWORK ZOO POSTED ON SEPTEMBER 14, 2016 BY FJODOR VAN VEEN   With new neural network architectures popping up every now and then, it's hard to keep track of them all. Knowing all

论文笔记之:Progressive Neural Network Google DeepMind

  Progressive Neural Network  Google DeepMind   摘要:学习去解决任务的复杂序列 --- 结合 transfer (迁移),并且避免 catastrophic forgetting (灾难性遗忘) --- 对于达到 human-level intelligence 仍然是一个关键性的难题.本文提出的 progressive networks approach 朝这个方向迈了一大步:他们对 forgetting 免疫,并且可以结合 prior know

(转)LSTM NEURAL NETWORK FOR TIME SERIES PREDICTION

  LSTM NEURAL NETWORK FOR TIME SERIES PREDICTION Wed 21st Dec 2016   Neural Networks these days are the "go to" thing when talking about new fads in machine learning. As such, there's a plethora of courses and tutorials out there on the basic va

(zhuan) LSTM Neural Network for Time Series Prediction

LSTM Neural Network for Time Series Prediction  Wed 21st Dec 2016 Neural Networks these days are the "go to" thing when talking about new fads in machine learning. As such, there's a plethora of courses and tutorials out there on the basic vanil

论文笔记之:Hybrid computing using a neural network with dynamic external memory

  Hybrid computing using a neural network with dynamic external memory Nature  2016    原文链接:http://www.nature.com/nature/journal/vaop/ncurrent/pdf/nature20101.pdf    摘要:人工智能神经网络 在感知处理,序列学习,强化学习领域得到了非常大的成功,但是限制于其表示变量和数据结构的能力,长时间存储知识的能力,因为其缺少一个额外的记忆单元.

论文笔记之:Decoupled Deep Neural Network for Semi-supervised Semantic Segmentation

  Decoupled Deep Neural Network for Semi-supervised Semantic Segmentation   xx  

(转) RNN models for image generation

  RNN models for image generation MARCH 3, 2017   Today we're looking at the remaining papers from the unsupervised learning and generative networks section of the 'top 100 awesome deep learning papers' collection. These are: DRAW: A recurrent neural