CANE:用于关系建模的上下文相关网络表示学习模型

CANE: Context-Aware Network Embedding for Relation Modeling


本文工作来自第 9 期 PhD Talk 嘉宾 — 清华大学计算机系人智所自然语言处理组的涂存超博士。该工作利用社会网络中用户产生的文本信息(如论文),采用 cross attention 技术,建立了上下文敏感的网络节点表示学习模型,在这里某个网络节点的表示会根据链接邻居的不同而不同,该算法在社会网络链接预测任务上表现非常好。本文已入选 ACL2017

论文链接:

http://www.thunlp.org/~tcc/publications/acl2017_cane.pdf

相关代码:

https://github.com/thunlp/CANE

相关数据集:

Cora: https://github.com/thunlp/CANE/tree/master/datasets/cora

HepTh: https://github.com/thunlp/CANE/tree/master/datasets/HepTh

Zhihu: https://github.com/thunlp/CANE/tree/master/datasets/zhihu

阅读笔记精选

huangchao

本文是一篇关于网络表示学习的文章,用于对一个网络结构中的节点进行向量化表示,传统的方法大都没有考虑一些异构信息(如节点的标签,文本等),在和不同的节点进行交互时,其表示也是相同的,因而是 context-free 的。本文的模型(CANE)通过引入一种相互注意机制(mutual attention),对节点的结构信息和文本信息进行了融合,从而可以考虑节点的上下文信息,在和不同的节点交互时具有不同的表示。本文的模型在连接预测和节点分类的任务上均取得了比其它模型更好的结果。

个人觉得本文的工作对于实体消歧方面的工作具有借鉴意义,另外,个人觉得本文模型可能受限的地方在于,本文考虑的 context 是针对一条边所连接的结点的文本信息,可能有点匮乏,以前看一些工作,网络中一个结点的 context 通常被认为是该结点连接的边以及其邻居结点的信息,因此,或许结合之前做关系抽取用到的 selective attention 找到和该结点连接的比较重要的一些边,再使用本文的 mutual attention 对结点的 text 和这些边的领域结点的 text 进行融合表示,或许可以学习到一个更有意义的结点的表示。

lizhili


本文主要针对目前存在的 NE 方法对于每个顶点仅有一个简单 embedding,没有考虑到网络节点根据不同的交互对象会展现出不同交互特性的缺陷,提出了上下文敏感的网络表示(CANE)。首先通过 cnn 得到网络顶点的一个 embedding(context-free embedding),之后通过计算该节点与相邻节点的 mutual attention(就是在 pooling 层引入一个相关程度矩阵),得到顶点针对该相邻节点的 context-aware embedding,最终顶点的 embedding 表示由这两个 embedding 结合得到。文章将模型用到了链接预测,节点间关系解释任务中,均取得了不错效果。

dingboy

对于传统的 NE 方法,结点只有一个 embedding,缺乏多样性。本文针对这点提出了上下文敏感的 embedding,从而构成了“动态”的结点。本文的“动态”思路与之前的 TransX 系列有类似之处。例如,TransD 与 TransR 通过投影矩阵,使得 entity 在不同 relation 下有不同的 embedding。而 TransG 认为 relation 具有多语义,通过生成模型,根据不同的实体对动态生成 relation 的语义 embedding。总体来说,本文的模型具有较好的借鉴意义。

 Q&A 精选

beryl

a low-dimensional embedding

这里是为每个顶点学习一个表示还是根据连接情况学习多个表示?

lizhili: 这里指的应该是一个固定的 embedding,也就是下文提到采用 NRL 得到 Context-free embedding,得到一个自身的 embedding。 不过除此之外,CANE 还会通过不同的邻边节点得到 context-aware embedding。

karis: 为每个顶点学习一个表示,但利用了网络结构和相关信息如节点描述 text。

Herbert002

Invthis paper, we assume that one vertex usu-ally shows different aspects when interact-ing with different neighbor vertices, and should own different embeddings respec-tively. Therefore, we present Context-Aware Network Embedding (CANE), anovel NE model to address this issue. CANE learns context-aware embeddings for vertices with mutual attention mecha-nism and is expected to model the seman-tic relationships between vertices more precisely.

作者假设一个节点通常在与不同的相邻节点交互时表现出不同的侧面,所以应当分别 embedding。因此,提出了上下文相关网络 Embedding(CANE)。CANE 为节点学习一个带相互注意机制的上下文相关 embedding,有望更准确地模拟节点间的语义关系。 

sunflower18: 这个相互注意机制要怎么理解啊,跟上下文相关是一个意思吗?

Herbert002在 4.5 节有详细说明,我觉得文中主要是引入 attentive matrix A 来实现。


mikasa赋予不同权重。

plntr

Given a word sequence S=(w1;w2;:::;wn)

要求每个 vertex 的 word sequence 是固定长度。实际问题中,如果每个顶点的 associate text 变长怎么办? 

Update:根据后面描述,每一个顶点都有单独的 convolution matrix,也就是顶点不共享参数?

kaharjan: word sequence 的长度应该不固定。

来源:paperweekly

原文链接

时间: 2024-09-20 09:11:45

CANE:用于关系建模的上下文相关网络表示学习模型的相关文章

IE里的探索之向标准上下文相关菜单里添加条目

IE里的探索之向标准上下文相关菜单里添加条目(作者:青苹果工作室编译 2001年02月08日 13:28) 本文描述在Microsoft Internet Explorer中执行URL指定的脚本时,如何向它的标准上下文相关菜单中添加菜单项. 如果你想向 Internet Explorer 的标准上下文相关菜单中添加菜单项,那么你应该熟悉注册表以及上下文相关菜单.有关上下文相关菜单的详细内容,可以参阅 SDK 中关于 Windows Shell API 的文档. 这里讨论的实现方式对 Intern

在ASN.1语法中,怎么知道某个类型是上下文相关的还是通用的?

问题描述 在ASN.1语法中,怎么知道某个类型是上下文相关的还是通用的? 还有在IEC61850的MMS中,Confirmed-RequestPDU :: = SEQUENCE{InvokeID Unsigned32ListOfModifiers SEQUENCE OF Modifier OPTIONALService ConfirmedServiceRequestService-ext [79] Request-Detail OPTIONAL}wireshark抓包对这个结构的编码为02 02

史贻云委员建议:尽快完善相关网络法律体系对于网络公关行为进行规定

史贻云委员建议: 加强对"网络水军"监管 本报北京3月13日电(特派记者魏如松)网络水军是受雇于网络公关公司,为他人发帖.回帖造势的网络人员,当前"网络水军"缺少规范性管理,越来越多的网络炒作引发公众对网络信息的信任危机,史贻云委员建议,尽快完善相关网络法律体系,采取有效的监管措施加强监管. 据了解,网络水军最早应用于网络公司之间的"暗战",后来加入娱乐圈的炒作,之后,网络水军规模逐渐壮大,通过专门的网络公关公司和水军管理网站,他们不需要聚集在一

沈长富:网络建设首先应完善相关网络立法

摘要: 沈长富提出,"构建和谐网络.健康网络.法制网络,应从加强网络法制建设.道德建设以及加强网络监管着手,强化网络的法律规范.道德规范." 全国人大代表,中国移动重庆公司总经理沈长富 3月4日消息,全国人大代表,中国移动重庆公司总经理沈长富今年带来的议案为<关于加强网络规范管理,构建健康网络环境的建议>. 他表示,"今年我的提案主要是以加强移动通信网络的内容管理为主,对于网络环境的建设,一方面需要通过立法来加强管理,另一方面也需要正面引导." 沈长富在

Representation Learning on Network 网络表示学习

Note: 以下是根据综述 [1][2] 梳理的笔记,由于是初探,语言和理论必然有不严谨之处,欢迎指正. 网络表示学习(Representation Learning on Network),一般说的就是向量化(Embedding)技术,简单来说,就是将网络中的结构(节点.边或者子图),通过一系列过程,变成一个多维向量,通过这样一层转化,能够将复杂的网络信息变成结构化的多维特征,从而利用机器学习方法实现更方便的算法应用. Embedding Nodes 在这些方法中,受研究和应用关注最多的就是节

谈一谈网络编程学习经验

建议大家去看原文:http://cloud.github.com/downloads/chenshuo/documents/LearningNetworkProgramming.pdf 1 谈一谈网络编程学习经验 陈硕 giantchen@gmail.com blog.csdn.net/Solstice weibo.com/giantchen 2012-02-13 本文谈一谈我在学习网络编程方面的一些个人经验."网络编程"这个术语的范围很广,本文指用 Sockets API 开发基于

ECAI 2016论文精选 | 用于改善文字和文本嵌入的聚类驱动模型

ECAI 2016是欧洲展示AI科学成果的最佳场所,大会为研究人员提供了很好的机会,去介绍和听取当代最优秀的人工智能研究成果. 用于改善文字和文本嵌入的聚类驱动模型(Cluster-Driven Model for Improved Word and Text Embedding) 摘要:大多数现有的文字嵌入模型只能考虑文字和与它相近语境之间的关系(例如,十字左右的目标文字).然而,超越相近语义的信息(整体语境),反映了丰富的语义含义,而这通常都被忽略了.本文中,我们提出了一个通用的框架,利用全

《中国人工智能学会通讯》——3.4 网络表示学习的应用

3.4 网络表示学习的应用 由于基于神经网络的网络表示方法的高效性,它被越来越多地应用到除传统应用场景(如网络节点分类.推荐和链接预测等)之外的其他方面(如文本建模[17,28]和可视化处理[29] ). 文本语料可以表示为一个带权重的网络结构(节点表示词,边权重表示词与词之间共现的程度),因此网络的表示方法同时也可以应用到文本建模中.LINE [17] 模型一个重要的应用就是学习词的向量表示,相比现在流行的 Skip-gram 词向量模型,它具有效率更高和效果更好的特点.在文献 [17] 中,

Socket网络编程学习笔记(3):利用套接字助手类

在上一篇中已经介绍了利用Socket建立服务端和客户端进行通信,如果需要 的朋友可访问<Socket网络编程学习笔记(2):面向连接的Socket>.在本篇 中,将利用C#套接字的助手类来简化Socket编程,使得刚刚接触到网络编程的 朋友们更容易上手. 跟上篇一样,通过C#套接字的助手类来编程同样分 服务端和客户端. 一.服务端侦听模式 1.创建套接字与 IPEndPoint绑定,并设置为侦听模式. 1//创建IPEndPoint实例 2 IPEndPoint ipep = new IPEn