别躲了,机器知道你们的关系 | 论文访谈间 #05

每天人们都在和形形色色的社交网站打交道,微信,微博,知乎等等。在不同的社交网站上,人们通过加好友,关注,互粉等功能建立了联系,形成了一张张巨大的社交网络。而在这些联系背后,往往蕴含着不同的含义。例如,很多原因可能使得我们成为社交网络上的好友:亲人关系,朋友关系,同事关系,或者仅仅是有着相同的兴趣爱好。如同在生活中一样,在社交网络上,我们也扮演着不同的角色,与他人维系着不同的关系。那么,机器如何能分辨出扮演不同角色的你?又如何知道你们之间不同的关系呢?今天,ACL2017 上清华大学涂存超博士等人的工作将为你一一解惑。

 

首先,介绍“网络表示学习(Network Embedding)”的概念。网络数据形式可以自然地表达物体和物体间的联系。“网络表示学习”目的是将网络中的节点用一个低维的实值向量进行表示,每个节点的表示向量蕴含了该节点的网络结构等信息。传统的网络表示学习往往将网络中的节点表示成一个固定不变的向量。然而,真实世界中的网络节点在与其他节点进行交互时,往往会展现出不同方面的特点。例如,一个研究者与不同的研究者发生合作关系往往因为不同的研究主题;社交媒体中的用户会因为不同的原因与其他用户建立联系。如图 1 所示,中间的学者在与右边作者发表论文时,很显然会发表 machine translation 相关的工作,而在和左边作者合作时则会是 syntactic parsing 相关的论文。考虑到网络节点的这种动态性,仅仅用一个固定的向量作为节点的表示,很显然是不合适的。此外,这些方法也不能对节点之间的关系进行有效的建模和解释。因此,如何对节点根据其邻居的不同学习动态的表示,以及如何对节点之间的关系进行解释,是网络表示学习面临的挑战。

▲ 图 1:同一用户对于不同邻居展现出不同角色

因此,在涂博士等人的工作中提出了一种“上下文敏感的网络表示学习模型(Context-Aware Network Embedding)”,如图 2 所示。该模型希望借助网络节点上额外的文本信息对网络节点的表示和节点之间的关系进行动态地建模。模型假设每个节点的表示向量由“结构表示向量(Vs)”和“文本表示向量(Vt)”两部分构成。其中,“ 文本表示向量(Vt)”是由节点的文本信息通过卷积神经网络生成的。图 2 中 u, v 两个节点首先分别通过卷积神经网络生成了 P, Q 两个文本表示矩阵。而后,为了根据 u, v 节点之间的关系进行动态地表示学习, 采用了“互相注意力机制”,生成了 ap, aq 两个注意力向量,分别作用于 P, Q 得到最终两节点的文本表示向量 Ut(v), Vt(u)。

▲ 图 2:利用互相注意力机制生成节点的文本表示向量

因为节点的文本表示向量的生成过程是跟邻居相关的,因此将其称之为“上下文敏感的表示向量”。同时,注意力的结果能够反映出节点对于邻居节点文本信息的关注点,从而能够对关系进行解释。如图 3 所示,通过上下文敏感的表示学习,节点A和不同的节点 B, C 之间呈现出不同的“注意力”,因此也解释了 AB, AC 之间不同的关系。同时,该论文通过实验验证了“上下文敏感的表示向量”的有效性,在三个网络数据集上的链接预测任务中均取得了最好的效果,并在节点分类任务上与前人工作可比。

▲ 图 3:利用互相注意力结果对节点之间关系进行解释

提及这个工作的应用场景,作者说“可以运用到许多社交网络分析任务中,例如网络节点分类、聚类,链接预测,社区发现等等。在真实的社交网络中,一般会对应着用户画像、好友推荐等任务。”关于这个工作现在的不足之处和未来的方向,作者表示“这篇论文通过 mutual attention 的结果对节点之间的关系进行解释,这种关系仍然是一种隐式的关系,怎么样能够对显示的关系的做出解释,比如说家人、朋友、同事、师生等,是我们之后关注的问题。” 让我们共同期待他们的未来工作!

来源:paperweekly

原文链接

时间: 2024-11-06 07:45:00

别躲了,机器知道你们的关系 | 论文访谈间 #05的相关文章

层叠注意力模型 - 实现机器阅读的正确姿势 | 论文访谈间 #04

通过搜索引擎我们可以轻松获取到海量的知识,可我们通常不会觉得一台电脑"知识渊博"--计算机并不理解这些知识,只能给你一系列相匹配的检索结果.在我们眼中,计算机更像是一座高级的图书馆,而不是一位能理解你所想所问的博学之士. 好消息是这一点正在逐渐改善.机器阅读理解,一项致力于教会机器阅读人类的语言并理解其内涵的研究,作为目前自然语言处理领域中的热门方向受到了广泛关注.与传统的问答系统不同的是,阅读理解任务更注重于对于篇章文本的理解,机器必须自己从篇章中学习到相关信息,而不是利用预设好的世

基于新标注模式的实体和关系联合抽取方法 | 论文访谈间 #07

本期论文访谈间我们将以"川普百科信息抽取"为例,来向大家介绍来自中科院自动化研究所的郑孙聪同学,王峰同学,包红云老师,郝悦星同学,周鹏同学,徐波老师的相关工作.他们的论文"Joint Extraction of Entities and Relations Based on a Novel Tagging Scheme"发表在今年的 ACL 2017 上,并被评为 ACL 2017 杰出论文. 实体和关系的联合抽取问题作为信息抽取的关键任务,其实现方法可以简单分为两

心慕手追,让机器像人一样理解句子 | 论文访谈间 #14

学习句子的语义表示就是将句子的含义映射到一个向量空间中,同时保留句子本身的一些特性,例如:表达相似含义的句子在向量空间中应该距离更近.而句子表示模型是将句子的含义编码为计算机可以理解的形式,这是解决大部分自然语言处理问题的先决条件,因此直接影响了许多自然语言处理任务的性能,如在神经机器翻译中需要首先将源语言句子表示为一个向量.在问答系统中需要将问句和答案编码为向量表示等. 但是句子是由不同的词构成的,不同的词包含的信息量不同,对句子的语义表示影响也就不同.如何能区分出这些词汇,给予重要的词更多的

“嘿,机器,你是怎么做好翻译的呀?” “来,我画给你看!” | 论文访谈间 #01

如果有一个功能神奇的"黑箱子",你想不想打开它,好好研究一番?神经机器翻译就是这么一个"黑盒",只要给它一句中文,就能将对应的英文顺利地翻译出来,如何才能一探其中的究竟呢?清华大学的丁延卓同学.刘洋老师.栾焕博老师和孙茂松老师在今年 ACL2017 上的工作就将这其中的奥秘"画给你看". 近年来,深度学习快速发展,神经机器翻译(Neural Machine Translation)方法已经取得了比传统的统计机器翻译(Statistical Mac

如何让机器拥有人类的智慧?| 论文访谈间 #09

在神经机器翻译(Neural Machine Translation, NMT)中,由于机器不具有人类的智慧,因此常常会犯一些低级的错误.例如,在中-英翻译中,原中文句子含有 10 个词,而机器却有时翻译出一个含有 50 个词的句子或者是只含有 2 个词的句子. 不管内容如何,在人类看来这样的翻译很显然是不对的.那么如何能让机器拥有人类的智慧,从而避免这种低级的错误呢?近日,我们有幸采访到了清华大学的张嘉成,介绍他发表在 ACL2017 上的工作 - Prior Knowledge Integr

1线程概念:线程和进程之间的关系,线程间可共享资源,线程间非共享资源,线程的优缺点

 1线程概念 1.1什么是线程 1.1.2线程和进程的关系         1.轻量级进程(light-weightprocess),也有PCB,创建线程使用底层函数和进程一样,都是clone. 2.从内核里看进程和线程是一样的,都有各自不同的PCB,但是PCB中指向内存资源的三级页表示相同的 3.进程可以蜕变成线程 4.在美国人眼里,线程就是寄存器和栈 5.在Linux下,线程是最小的执行单位:进程是最小的分配资源的单位   查看LWP号(通过这个命令可以查看到线程号),命令是: ps –

基于新标注模式的实体和关系联合抽取方法 | 每周一起读

Joint Extraction of Entities and Relations Based on a Novel Tagging Scheme 实体和关系的联合抽取问题作为信息抽取的关键任务,其实现方法可以简单分为两类:一类是串联抽取方法.另一类是联合抽取方法. 串联抽取方法将该问题分解为两个串联的子任务,即先采用实体识别模型抽取实体,再采用关系抽取模型得到实体对之间的关系,其优势是便于单独优化实体识别任务和关系抽取任务,但缺点是它们以获取三元组的中间产物(实体或者关系类型)为目标,而实体

“嗨,我叫汪仔,今年三岁了”- 论如何为聊天机器人定义一个固定的人格 | 论文访谈间 #12

近年来,人工智能之火大家已经有目共睹了:从<未来简史>.<必然>等国外著作到李开复的<人工智能>.李彦宏的<智能革命>等成为畅销书,大众对于 AI 的热捧程度达到了历史高点,人机对话是人工智能领域中最重要的问题之一,聊天机器人(chatbot)顺势成为了研究的热点. 聊天机器人这一热潮可从两个角度进行解释:从学术上,机器人的智能一方面体现他能否理解人类的语言并给出合理的回复,另一方面也体现在他是否足够的类人化,即可以被当作一个人类用来交流,这对应了人工智能的

化繁为简,自动为词汇推荐义原组合 | 论文访谈间 #15

在第十期<论文访谈间>,我们介绍了义原信息(sememe)在提高词向量表示能力方面的作用.义原信息(sememe)是词意的最小语义单位,一个词的意思可以认为是多个义原信息的组合.在 HowNet 中,可以具象化出这种 word-sense-sememe 的结构,如下图所示: 其中苹果是我们的目标单词,网络包含苹果的两个不同意思,而 sememe 分别解释了两个 sense 的具体含义.  为了在 NLP 任务中利用义原信息,需要为词汇进行义原标注.传统的人工标注费时费力,同时由于会让多个专家进