CN-DBpedia:永无止境的中文知识提取系统外文翻译资料

 2022-08-08 09:08

英语原文共 11 页,剩余内容已隐藏,支付完成后下载完整资料


CN-DBpedia:永无止境的中文知识提取系统

摘 要

为了通过线上的百科网站构建知识库,人们已经付出了巨大的努力。这些知识库对机器理解文本信息发挥着重要的作用。然而,当前大部分知识库都是英文的。非英文知识库,尤其是中文知识库,仍然非常少见。以往许多从在线百科网站中提取知识的系统,虽然适用于建立中文知识库,但仍面临着两大挑战。一是构建本体和建立有监督的知识抽取模型需要消耗巨大的人力。二是知识库更新频率很低。为了应对这些挑战,我们提出了一个永无止境的中文知识抽取系统:CN-DBpedia,它可以自动生成一个规模不断扩大且能够持续更新的知识库。特别是通过重用现有知识库的本体,建立一个端到端的事实抽取模型,降低了人力成本。我们进一步提出了一种智能的主动更新策略,以保持我们的知识库的新鲜度,而且不需要花费过多的人力。我们发布的在线服务API已经被调用了1.64亿次,这证明了我们系统的成功。

1 引言

随着网络应用程序的推动,万维网上充斥着前所未有的大量的信息。但是,大部分信息只能由人读取,并不能由机器读取。为了让机器理解网络内容,人们已经付出了巨大的努力,通过维基百科(Wikipedia)等在线百科网站构建知识库。因此,各种知识图谱或知识库已经被构建出来,例如Yago,DBpedia和Freebase。这些知识库在许多应用程序中发挥着重要的作用,例如问答和推荐系统。

如今,大部分的知识库都是英文知识库。非英文知识库,如中文知识库,仍然非常罕见。例如,DBpedia是一项公共项目,旨在从111种不同语言版本的维基百科中提取结构化的多语言知识。其英文版包含370多万个实体,而其中文版只包含约一百万个实体。中文应用的普及需要更多的中国知识库。

虽然已经存在许多知识库的构建方法,例如Yago,DBpedia 和 zhishi.me(中文知识库),但我们仍然面临两个挑战:

第一,如何降低人力成本?一般来说,构建一个只需要花费很少人力成本的知识库,并不是一件容易的事。许多手工制作的知识库在很大程度上依赖于人类的努力。例如,DBpedia使用众包方法构建本体,该本体用于键入实体。Yago使用人为指定的模式来丰富本体。此外,许多监督的方法也被用来丰富知识库,其中大多数依靠的是手工构建的特征。

第二,如何保持知识库的新鲜度? 现有知识库的更新频率非常低。例如,DBpedia的更新频率为6个月。然而,新实体的出现速度非常快,这会导致知识库的淘汰。确保知识库新鲜度的一个直接解决方案是使知识库与数据源高频率同步。然而,高同步频率通常会带来高昂的成本和浪费,因为大多数实体是保持不变的。因此,我们需要一种智能的主动更新策略,该策略可以自动识别新实体以及知识库中已有实体的变化。

为了解决这些问题,我们提出了一个永无止境的中文知识抽取系统:CN-DBpedia。我们的贡献如下:

1.首先,我们降低了构建中文知识库的人力成本。我们首先提出重用现有的本体来减少构建高质量本体的困难。我们还提出了一种端到端的深度学习模型,无需监督就能自动从百科网站文章中提取结构化的事实。

2.其次,我们提出了一种智能的主动的更新策略,通过比较低的更新成本使知识库保持新鲜度。

本文的其余部分如下所示。在第2节中,我们介绍了CN-DBpedia的体系结构。在第3节中,我们将介绍如何减少构建CN-DBpedia的工作量,包括重用DBpedia的本体和构建端到端的提取模型,以丰富实体的信息框。在第4节中,我们详细阐述了我们的更新策略。第5节介绍了本系统的统计分析,包括所提取的知识的分布和信息的使用情况。最后,我们在第6节中总结了我们的论文。

2 系统架构

CN-DBpedia的系统架构如图1所示。该系统使用百度百科,沪东百科和中文维基百科(中国三大百科网站)作为主要数据来源。首先我们从那些百科网站的文章中提取原始知识。与维基百科不同,百度百科和沪东百科不提供任何转储文件。因此,我们需要使用爬虫来获取这些文章。百科网站中的文章包含许多结构化信息,例如摘要,信息框和类别信息。我们直接从这些结构化信息中提取事实,并将其移植到中文知识库中。

图1.CN-DBpedia的系统架构

然而,到目前为止所获得的知识库的质量仍然还不够好。还有三个额外的步骤来提高知识库的质量。

步骤1规范。由于在线百科网站是用户生成内容的网站,所以对内容的描述通常是多种多样的。不同的贡献者可能使用不同的名称和格式来描述相同的属性和值。例如,为了描述一个人的出生,一个编辑者可能使用属性birthday,另一个编辑者可能使用date of birth或其他一些东西。因此,我们需要规范化知识库中的属性和值。

步骤2完善。当前的知识库是不完整的,因为没有实体包含类型信息,而且有些实体缺少信息框信息。为了用类型信息充实实体,我们重用了DBpedia中的本体(尤其是类型分类)并用DBpedia类型输入了中文实体。通过从文章的中查找更多的SPO (主语-谓词-宾语)三元组,我们完善了实体的信息框信息。具体情况见第3节。

步骤3修正。当前的知识库可能包含错误的事实。我们提出了纠正这些错误的两个主要步骤。一是误差检测,二是误差校正。我们使用两种方法来检测错误。第一个是基于规则的检测。例如,我们可以使用属性的域和范围来查找错误,属性生日的取值范围是日期,任何其他类型的值都是错误的。第二种错误检测方法是基于用户反馈。CN-DBpedia提供了一个用户搜索界面来浏览系统中的知识。该接口允许用户对SPO事实的正确性提供反馈。界面如图2所示。误差检测后,我们主要使用众包进行纠错。我们将错误事实分配给不同的贡献者,并汇总他们的修正结果。挑战在于如何将多个不同的贡献者提供的数据聚合成为一致的数据。一种简单但有效的方法是多数票法。

图2.CN-DBpedia提供给用户进行意见反馈的页面

3 降低人力成本

我们降低人力成本的第一个想法是重用现有知识库的本体,并使用现有知识库中的类型添加中文实体。第二个想法是构建一个端到端提取器来完善信息框。接下来,我们将详细阐述这两个想法。

3.1 跨语言实体类型

构建一个被广泛接受的分类体系需要大量的人力工作。为了避免这种情况,我们重用了DBpedia的分类体系,因为它定义得很好,并且得到了广泛的认可。分类体系重用的第一步是把英文DBpedia的类型输入中文实体。为了解决这个问题,我们开发了一个系统:CUTE(跨语言类型推断)。

图3. CUTE的架构

图3是CUTE的系统架构。该系统构建了一个有监督的层次分类模型,该模型接受一个无类型的中文实体(具有其特征)作为输入,并在DBpedia中输出所有有效的英文类型。与单层分类模型相比,层次模型减少了分类时间,提高了分类精度。因此,构建有效模型的关键就归结为构建高质量的标记数据集。由于减少人工工作是我们主要关注的问题,因此我们开发了一个自动生成标记数据的程序。我们注意到英文/中文知识库中的一些实体可能具有相同的中文标签名称。因此,我们可以将中文实体与具有相同中文标签名称的英文实体配对。中文实体以及配对的英文实体的类型,自然都是带标签的样本。然而,上述方法构建的训练数据的质量仍然存在很多问题:

-在许多情况下,英文DBpedia实体的类型是不完整的,这导致了带有不完整类型的标记样本出现。

-在某些情况下,英文DBpedia实体的类型是错误的,这导致一些样本的类型是错误的。

-按中文标签名称链接的实体可能会出错,从而导致样本错误。例如,《饥饿游戏》在DBpedia中是小说的标签名,而在中文知识库中是电影的标签名。

-中文实体的特征通常是不完整的。例如,一些演员可能只记录了一些基本信息,例如生日和身高,这将使对其细粒度类型(例如演员类型)的有效推断失去作用。

为了提高训练数据的质量,我们提出了两种方法:

-为了解决英文DBpedia实体的类型不完整的问题,我们首先将英文DBpedia实体的类型补充完整。

-为了解决后三个问题,我们对训练数据进行了噪声滤波,剔除了所有的错误样本。

3.2 信息框补全

补全信息框是充实CN-DBpedia的关键步骤。这一步的自动化对于降低人力成本是关键的。信息框包含关于实体的结构化lt;主语、谓语、宾语gt;(即三元组)事实,例如lt;莱昂纳多·迪卡普里奥,出生地,好莱坞gt;。信息框补全是从百科网站的文章中为给定的一对实体和谓词抽取宾语的任务。我们将提取问题建模为一个序列到序列(seq2seq)的学习问题。输入是一个包含特征词的自然语言句子,输出是每个特征词的标签。标签是1或0,用于预测特征词是否为谓词对象的一部分。我们为每个谓词训练一个抽取器εp​。例如,图4中的句子出现在莱昂纳多·迪卡普里奥的维基百科页面。出生地抽取器将会把好莱坞和加州标记为莱昂纳多·迪卡普里奥的真实出生地。

图4.好莱坞和加州被抽取为宾语

建立一个有效的抽取器有两个关键问题。第一是如何构造训练数据。第二是如何选择所需的抽取模型。对于第一个问题,我们采用了远程监控的方法。基本思想是维基百科信息框包含许多关于实体的结构化事实,其中许多事实也在实体文章的自由文本部分中提到。因此,我们可以使用信息框中表示事实的句子作为训练数据。例如,如果lt;莱昂纳多·迪卡普里奥,出生地,好莱坞gt;出现在莱昂纳多·迪卡普里奥的信息框中,我们可以很容易地找到句子(如图4所示),并在句子中正确的标注宾语。

对于第二个问题,我们使用长短时记忆递归神经网络(LSTM-RNN)进行信息抽取。LSTM-RNN在复杂信息的建模和处理方面已被证明是有效的,并在许多自然语言处理任务中取得了最先进的结果。然而,LSTM-RNN很少用于信息抽取。基于以下原因,我们设想LSTM-RNN可以成为一个强大的信息抽取工具。首先,在给定标记数据的情况下,深度学习框架可以提取特征和表示,从而节省了大规模、多谓词信息抽取的特征工程的成本。其次,LSTM-RNN能够较好地处理长距离依赖关系,并且能够泛化自然语言的句法模式。

模型结构如图5所示。输入文本被视为一个特征词序列。我们最终输出的是一个带标签的序列(带有TRUE或FALSE标签),它与输入特征词序列具有相同的长度。我们对输入特征词序列中的每个特征词使用混合表示,以涵盖尽可能多的用于知识库构建的有用信息。向量表示为三个向量的串联:单词嵌入向量(V)、短语信息(P )、类型信息(T)。V代表单词的字面信息,P代表我们对单词如何组合成短语的先验知识,T是实体e的类型表示。上一步得到的每个特征词的表示现在被输入到LSTM递归神经网络。显然,在自然语言句子中,特征词的标签既与前面的特征词相关,也与后面的特征词相关。这促使我们使用双向的LSTM隐藏层来捕获过去和未来的输入特征词。

图5.模型结构

最后我们使用二元交叉熵损失函数作为目标函数训练模型:

其中circ;yt (0或1)为第t个特征词的基真值。我们在训练数据生成阶段得到circ;yt。

4 知识库更新

在本节中,我们将详细介绍我们的更新机制。我们首先介绍一个被广泛使用的更新策略,然后介绍一个更智能的更新策略。

定期更新。更新策略对于知识库的新鲜度至关重要。最基本的更新策略是定期更新。现有的知识库(如DBpedia和Yago)大多使用这种更新策略。就是在一段时间后用一个新版本完全取代当前的知识库。在定期更新中,周期是一个关键问题。较长的更新周期意味着较低的更新成本,但是知识库可能包含较多的已经过时的实体事实。较短的更新周期可以保持知识库的新鲜度,但有巨大的更新成本。如何设置一个最佳的更新周期是一个具有挑战性的问题。

为了解决这个问题,CN-DBpedia不仅支持定期更新,而且支持更智能的更新策略,该策略通过监视实体的变化来主动更新知识库,并且只在实体的事实发生变化时才更新实体。我们将此更新策略称为主动更新,将在以下文本中详细说明。

主动更新。主动更新的关键问题是识别新实体(如iPhone 7)或可能包含新事实的旧实体(已存在于知识库中)(如唐纳德bull;特朗普)。我们通过两个来源来确定这些实体:

一是近期热点新闻中提到的实体。

二是搜索引擎或其他热门网站的热门关键词中提到的实体。

热点新闻通常是一个具有时效性的重要事件。热门新闻中提到的实体要么是新的实体,要么是事实往往会发生变化的实体。例如,唐纳德·特朗普当选为美国第45任总统。他在知识库中的职业应被更新为总统。为了找到热点新闻中提到的实体,我们构建了一个实时新闻监控器,收集最新的热点新闻的标题。然后,我们识别新闻标题中的实体,并从百科网站中检索实体。

搜索引擎中流行的搜索关键词或句子通常包含目标实体。许多中文搜索引擎,如百度、搜狗等,都有一个实时热点查询或主题面板。此外,一些搜索引擎,如搜狗,甚至显示搜索量排名前10的电影,歌曲,游戏等。它们也是寻找新实体或最近被更新的实体的高质量资源。

唯一剩下的问题是从新闻标题或搜索的查询文本中提取实体名称。为了确保我们的解决方案不会遗漏任何新的实体,我们不使用新的短语检测算法。相

剩余内容已隐藏,支付完成后下载完整资料


资料编号:[259192],资料为PDF文档或Word文档,PDF文档可免费转换为Word

原文和译文剩余内容已隐藏,您需要先支付 30元 才能查看原文和译文全部内容!立即支付

以上是毕业论文外文翻译,课题毕业论文、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。