《短文本数据理解(1)》一2.2 属性提取

2.2 属性提取

本节介绍基于知识的属性提取的方法,该方法可从多数据源提取(概念,属性)对。为(概念,属性)对打分的方法将在23节给出。

2.2.1 属性提取的整体框架

如图22所示,本章的属性提取方法基于概率数据库Probase,并从三种数据源获取数据。222节将介绍Probase的具体信息,该方法侧重的数据类型为网站数据、搜索数据和各种结构数据,表22总结了这些数据类型。网站数据包括240TB的网页文本,搜索数据包含6个月内搜索频率大于2的搜索查询语句,结构数据为DBpedia[1]中获取的(实体,属性)对。

本章涉及的属性提取方法包含两类:基于概念的方法和基于实体的方法。前者可直接获取概念的属性,而后者需先获取同一概念内实体的属性,然后再聚合这些实体的属性以获取概念的属性。两种属性提取的方法都将被应用于网站数据。对于搜索数据和结构化数据(DBpedia),只有基于实体的属性提取方法可用。属性提取方法的细节将在223节给出。通过不同方法和数据源提取的属性不完全重叠,因而可以互补。

2.2.2 概率isA网络

本章工作使用概率知识库Probase[166]来辅助属性提取。Probase旨在建立一个包含人类思维所有概念的isA关系网络。isA关系通过赫斯特语言模式(Hearst linguistic pattern)提取[69],即SUCH AS模式。例如,通过一个包含“…artists such as Pablo Picasso…”的句子可以获知artist是Pablo Picasso的一个上位词。

Probase有两个特点。首先,它的覆盖范围很广,囊括了从十亿数量级的网页中获取的百万级概念和实体。它不仅包含诸如“country”和“city”的广义概念,还记录了类似“basic watercolor technique”和“famous wedding dress designer”这样的具体概念。因而,Probase能很好地诠释人的沟通。Probase的另一个特点是它是一个概率性知识库。它包含每对(概念,子概念)或(概念,实体)的共现次数。这些共现信息方便于isA关系中典型度得分的计算。例如:

其中instance表示isA关系中的实体,concept表示概念。n(instance,concept)表示概念(concept)和实体(instance)的共现次数。典型度得分对短文的理解十分重要。

2.2.3 基于概念和基于实体的属性提取

本节将重点介绍基于概念和基于实体的属性提取方法,数据来源为网站数据、搜索数据和已有知识库,两种属性提取方法的结果将被比较。本节还将介绍一种可以提高属性提取质量的过滤方式。

1网页文本的属性提取

很多信息提取方法侧重于迭代寻找符合要求的语法模式。然而,这些方法的一个不足之处在于高质量的语法模式很少,大多数模式都存在噪声。因此,本章所采用的方法侧重于如下高质量的语法模式以尽可能准确地处理文本(提高准确率),并且从大量网页文本中获取属性(提高召回率):

 基于概念的属性(简称CB)提取的语法模式:

 基于实体的属性(简称IB)提取的语法模式:

这里,为希望获取的目标属性,为希望获取的目标概念,为希望获取的目标实体。和都可以通过Probase的语义网络获取。例如,假设目标概念=wine,通过句子“…the acidity of a wine is an essential component of the wine”可获知

网页文本的特征提取结果是一系列(概念,属性)对的集合。在此基础上的另一项任务是为每对关系标注权重。假设CB的结果(c,a)和IB的结果(i,a)被表示为元组(c,a,n(c,a))和(i,a,n(i,a)),其中n(c,a)为和的共现次数,n(i,a)为

由于需要从大量网页中获取属性,所以现有的基于词性标注的模式挖掘方法无法使用。取而代之,本章的方法采用之前提到的模式轻量提取。据以往研究表明[6],基于“is”的提取可以产生较高质量的结果,同时不需要词性标注。在提取过程中的另外一项挑战是冠词“the/a/an”的使用。对于CB模式,冠词的使用对过滤概念自身描述必不可少(比如“the definition of wine”或“the plural form of country”)。对于IB模式,冠词可被有选择地使用,并且取决于实体是否为命名实体(例如Microsoft为命名实体,而software company不是)。为区别这两种情况,本章的方法将把所有以大写字母开头的实体当成命名实体,可以不需要冠词。其余情况下的实体抽取则需要依靠冠词进行确认。

2外部知识库的属性(简称KB)提取

属性提取还从已存在的知识库进行。这项工作使用基于Wikipedia中结构信息的DBpedia。DBpedia没有基于概念的属性,因此,基于实体的属性提取方法被使用。根据DBpedia的实体页(由属性描述),一系列的(i,a)对可被获取。然而,DBpedia不包含可推出属性典型性的任何信息,因此,所有的(i,a)不做区分设定:n(i,a)=1,遂可生成一系列的(i,a,n(i,a))元组。尽管n(i,a)=1,但由于同一概念内的实体含有不同属性,我们仍可按先前方法计算概念属性的典型度得分。

3搜索日志的属性(简称QB)提取

为使用基于实体的方法从搜索日志中提取属性,一项先前研究中的方法[126]被采用以提取尽可能多的元组。在搜索日志中基于概念的提取方法亦不能工作,这是由于人们在搜索时往往对具体的实体更感兴趣。在方法的第一阶段,候选的实体属性关系对(i,a)被从搜索日志中以“theof(the/a/an)”的模式提取,以AQB表示。接下来将候选集合拓展为AIU,使其包含通过IB和KB获取的属性(分别以AIB和AKB表示):

在第二阶段,搜索日志中每对(i,a)中的i和a的共现次数n(i,a)被统计,以生成(i,a,n(i,a))元组集合。这个集合会按照先前提出的方式处理。

4属性分布

下面将比较CB和IB获取的属性的差异。图23对比了二者在state这个概念上的属性分布差异。举例而言,name这个属性在CB模式下被频繁观察,比如会出现“the name of a state is…”。然而人们不会在某个具体的state上提到name这个属性,比如不会出现“the name of Washington is…”。根据比较,CB和IB两种模式的提取是互补的。

CB属性的优点在于可以直接将属性绑定至概念,如通过“the population of a state”,机器可以自行将population这个属性绑定至state这个概念下。相比之下,IB模式“the population of Washington”对机器识别而言则颇具挑战性,因为Washington可能属于不同的概念,比如state或president。

然而,IB模式更容易提取高质量的属性。例如,虽然“the population of a state”这个模式不常被观测到,但是当把state替换为某一具体实体时,则可以收集到足够的模式,如“the population of Washington”。这表明IB模式可以通过大量统计信息获取高质量属性,与CB模式互补。

5模式提取的过滤

这一部分将介绍通过过滤来提高属性质量的方法。首先将收集到的模式语句分成下述三类:
 C1:The CEO of Microsoft is …——属性
 C2:The rest of China has been …——修饰表达式
 C3:The University of Chicago is …——包含of的名词短语
在这三类结果中,C2和C3会产生含噪声的结果,过滤规则将分别对这两类模式的结果进行设计。
C2——错误列表过滤。为了解决C2中的问题,一个“黑名单”被人为创建。名单中包括可以绑定到任何概念的属性,比如:
 The lack of vitamin A is
 The rest of the country was in
 The best of The Simpsons is
由于单词lack、rest和best并没有描述后面出现的概念,所以它们不能被当成概念的属性。若不被过滤,这些噪点属性将会错误地给出较大的P(a|c)。
为了过滤掉这些噪点属性,我们需要确定那些在很多并不相近的概念中都被观察到的属性。为此,49个不相近的概念被人为选取。对于一个属性,其所涉及的概念数目将被统计。表23给出了统计的排序结果。然而,这样得到的“黑名单”中会错误地包含那些确实对很多概念都适用的属性,比如name。为了进一步地将这些属性从“黑名单”中去除,属性的得分也将被考虑。高得分的属性被从“黑名单”中去除。具体的属性打分方式将在23节给出。

C3——包含of的命名实体。为了解决C3中的问题,与命名实体相关的of从句被过滤掉,比如“the University of Chicago”、“the Bank of China”、“the People’s Republic of China”。作为过滤条件,首先被考虑的是首字母大写的实体。然后,通过参照数据库过滤掉of从句。例如,“the University of Chicago”是Probase中的一个实体,因而不应该将university当成city这个概念的属性。这种方法可以处理不区分大小写的文本,比如微博。

时间: 2024-09-30 22:45:22

《短文本数据理解(1)》一2.2 属性提取的相关文章

《短文本数据理解(1)》一1.3 短文本理解框架

1.3 短文本理解框架 针对上述研究问题与研究现状,本书将围绕短文本理解的各项需求及挑战,重点介绍显性模型中基于概念化模型进行短文本理解中的关键性技术,如图16所示. 在语义网络层,主要是构建理解短文本所需要的额外知识源,即知识库系统或者语义网络.知识库包含概念.实体.属性和关系,当关系足够丰富时,便构成了语义网络,它在许多应用中的作用日渐突出.其中,知识库中的概念和实体关系已经有较为充分的研究,因此本书主要介绍基于概率的属性提取与推导,从而完善整个语义网络,以支持其上的模型构建. 在概念化层

《 短文本数据理解》——1.3短文本理解框架

1.3短文本理解框架 针对上述研究问题与研究现状,本书将围绕短文本理解的各项需求及挑战,重点介绍显性模型中基于概念化模型进行短文本理解中的关键性技术,如图1.6所示. 在语义网络层,主要是构建理解短文本所需要的额外知识源,即知识库系统或者语义网络.知识库包含概念.实体.属性和关系,当关系足够丰富时,便构成了语义网络,它在许多应用中的作用日渐突出.其中,知识库中的概念和实体关系已经有较为充分的研究,因此本书主要介绍基于概率的属性提取与推导,从而完善整个语义网络,以支持其上的模型构建. 在概念化层,

《短文本数据理解(1)》一1.2 短文本理解研究现状

1.2 短文本理解研究现状 1.2.1 短文本理解模型概述 本节根据短文本理解所需知识源的属性,将短文本理解模型分为三类:隐性(implicit)语义模型.半显性(semiexplicit)语义模型和显性(explicit)语义模型.其中,隐性和半显性模型试图从大量文本数据中挖掘出词与词之间的联系,从而应用于短文本理解.相比之下,显性模型使用人工构建的大规模知识库和词典辅助短文本理解. 1隐性语义模型 隐性语义模型产生的短文本表示通常为映射在一个语义空间上的隐性向量.这个向量的每个维度所代表

《 短文本数据理解》——1.2短文本理解研究现状

1.2短文本理解研究现状 1.2.1短文本理解模型概述 本节根据短文本理解所需知识源的属性,将短文本理解模型分为三类:隐性(implicit)语义模型.半显性(semiexplicit)语义模型和显性(explicit)语义模型.其中,隐性和半显性模型试图从大量文本数据中挖掘出词与词之间的联系,从而应用于短文本理解.相比之下,显性模型使用人工构建的大规模知识库和词典辅助短文本理解. 1隐性语义模型 隐性语义模型产生的短文本表示通常为映射在一个语义空间上的隐性向量.这个向量的每个维度所代表的含

《 短文本数据理解》——导读

|前 言 当今世界,每天都有数十亿的短文本产生,比如搜索查询.广告关键字.标签.微博.问答.聊天记录等.与长文本(如文档)不同,短文本具有如下特性:首先,短文本通常不遵守语法规则:其次,短文本由于字数少,本身所包含的信息也较少.前者使得传统的自然语言处理方法不能直接适用于短文本,而后者则意味着短文本理解不得不依赖于外部信息.简而言之,短文本具有较稀疏.噪声大.歧义多的特点,因而机器理解短文本面临极大的挑战. 而另一方面,随着近些年人工智能技术的重大突破,尤其是大规模知识图谱以及深度学习技术的出现

《短文本数据理解(1)》一导读

前 言 当下大数据技术发展变化日新月异,大数据应用已经遍及工业和社会生活的方方面面,原有的数据管理理论体系与大数据产业应用之间的差距日益加大,而工业界对于大数据人才的需求却急剧增加.大数据专业人才的培养是新一轮科技较量的基础,高等院校承担着大数据人才培养的重任.因此大数据相关课程将逐渐成为国内高校计算机相关专业的重要课程.但纵观大数据人才培养课程体系尚不尽如人意,多是已有课程的"冷拼盘",顶多是加点"调料",原材料没有新鲜感.现阶段无论多么新多么好的人才培养计划,都

《 短文本数据理解》——2.2属性提取

2.2属性提取 本节介绍基于知识的属性提取的方法,该方法可从多数据源提取(概念,属性)对.为(概念,属性)对打分的方法将在23节给出. 2.2.1属性提取的整体框架 如图2.2所示,本章的属性提取方法基于概率数据库Probase,并从三种数据源获取数据.2.2.2节将介绍Probase的具体信息,该方法侧重的数据类型为网站数据.搜索数据和各种结构数据,表2.2总结了这些数据类型.网站数据包括240TB的网页文本,搜索数据包含6个月内搜索频率大于2的搜索查询语句,结构数据为DBpedia[1]中

《 短文本数据理解》——第2章 基于概率的属性提取与推导2.1引言

|第2章 基于概率的属性提取与推导 知识库包含概念.实体.属性和关系,它在许多应用中的作用日渐突出.本章强调(概念和实体的)属性知识对推测的重要性,并提出一种为百万级的概念推导出属性的方法.该方法将属性和概念的关系量化为典型性(typicality),使用多个数据源来聚合计算这些典型度得分,这些数据源包括网页文本.搜索记录和现有的知识库.该方法创新性地将基于概念和实体的模式融合计算典型度得分,大量的实验证明了该方法的可行性. 2.1引言 创建概念.实体和属性的知识库的目的在于赋予机器像人类一样的

《短文本数据理解(1)》一第2章 基于概率的属性提取与推导2.1 引言

第2章 基于概率的属性提取与推导 知识库包含概念.实体.属性和关系,它在许多应用中的作用日渐突出.本章强调(概念和实体的)属性知识对推测的重要性,并提出一种为百万级的概念推导出属性的方法.该方法将属性和概念的关系量化为典型性(typicality),使用多个数据源来聚合计算这些典型度得分,这些数据源包括网页文本.搜索记录和现有的知识库.该方法创新性地将基于概念和实体的模式融合计算典型度得分,大量的实验证明了该方法的可行性. 2.1 引言 创建概念.实体和属性的知识库的目的在于赋予机器像人类一样的