研究文章|开放获取
陈忠,秦赛格,饶冠军,顾天龙,常亮, "关于知识图形嵌入的多视图翻译学习“,科学的规划, 卷。2020., 文章ID.7084958, 9 页面, 2020.. https://doi.org/10.1155/2020/7084958
关于知识图形嵌入的多视图翻译学习
摘要
最近,由于他们在知识代表中的突出效果和稳健性,知识图形嵌入方法吸引了许多研究人员的利益。但是,现有方法仍有一些限制。一方面,基于翻译的代表模型专注于构思的翻译原则,以代表全球视角来代表知识,而他们未能歧视地学习各种类型的关系事实。它容易发生在嵌入空间中的复杂关系事实的实体拥塞,从而降低了与实体相关的表示向量的精度。另一方面,从原始图中提取的并行子图用于判别学习当地关系事实。然而,在子图提取期间,它可能导致原始知识图的关系事实损坏到某种程度上。因此,之前的方法无法均匀地学习本地和全球知识表示。为此,我们提出了一个名为MVTRANSE的多视图翻译学习模型,这些模型分别从全局视图和本地视角来看,从全局视图和本地视角来看。具体地,我们首先通过考虑同时考虑实体语义和结构特征来构造来自原始知识图的多个并行子图。然后,我们将原始图形嵌入到相应的全局和本地特征空间中。 Finally, we propose a multiview fusion strategy to integrate multiview representations of relational facts. Extensive experiments on four public datasets demonstrate the superiority of our model in knowledge graph representation tasks compared to state-of-the-art methods.
1.介绍
知识图(1]是一种定向图,包括作为节点的实体和实体之间的关系作为边缘。并且每个知识图形的关系事实被存储为三联体(头,关系,尾巴)的缩写(h,r,t),h和t分别表示头部和尾部实体,和r是一种关系来自h来t.随着大数据时代的出现,知识图表的规模仍在继续增长;不同的大型知识图(例如,Wordnet [2]及Freebase [3.])出现。尽管目前知识图的规模很大,但距离知识的完整性还很遥远。例如,Freebase中75%的人缺乏国籍信息,71%的人缺乏出生地信息[4].因此,有必要设计一种方法来自动完成或推断现有知识图中缺失的关系事实。
最近,基于嵌入的方法在知识图表完成方面存在强大的可行性和鲁棒性,该项目实体和知识图形的关系成为密集,连续和低维矢量空间。在现有的方法中,由于知识代表中的突出有效性和稳健性,基于平移的方法引起了许多研究人员的利益。Bordes等人提出了一种基于翻译的方法,名为Transe [5].对于每个三联网(h,r,t),Transe对待关系r作为翻译操作h来t在矢量空间。如果 (h,r,t),翻译原则 满足于向量空间,在哪里h,r,和t是矢量表示h,r,和t.Transe是一种简单而有效的翻译模型,用于处理1到1个简单的关系事实,它通过特定关系代表每个单个头实体连接一个尾部实体。它在链路预测上实现了最先进的性能。然而,翻译原则太硬了,无法处理复杂的关系事实,包括1-to-N,N-to-1,和N- - - - - - - - -N事实从技术上讲,当多个头实体(或尾实体)仅在向量空间的一点上投影时,可能会导致实体的空间拥塞。
为了消除特朗于代表复杂关系事实的弱点,提出了一系列改进的模型,例如Transh [6], TransR [7],transd [8]和透明[9].基本上,上述方法专注于设计各种翻译原则,更准确地学习复杂的关系事实。然而,它们仍然将完整的知识图形嵌入一个矢量空间,从全球角度来看,它们未能判别学习各种类型的关系事实。也就是说,每个实体和知识图形的关系都被学习为它们空间中的相应唯一代表向量。因此,翻译空间中仍有载体拥塞。对于真实的世界示例,三元组的头部实体(奥巴马,美国总裁)和(特朗普,美国总统),即,奥巴马和特朗普,由于相同的社会地位,在传染媒介空间中预测。但是,他们在其他观点中完全不同。
要解决这个问题,普罗兰人[10从局部视角下以子图的形式将知识图分成多个并行空间,并实现复杂关系事实的空间稀疏。具体在普陀兰,实体和关系在不同的并行空间中具有各自的特征表示。这种方法可以提高学习复杂关系事实的能力,因为避免了复杂的关系事实中的实体的空间拥塞。但是,普罗兰仍然有两个缺点。首先,普罗兰在并行空间生成期间对简单的关系事实带来过度的稀疏性。因此,它几乎没有学习单个子空间内简单关系事实的完整矢量表示。这是因为Putranse不仅对复杂的关系事实进行空间稀疏,而且对简单的关系进行。其次,Putranse随机选择本地知识来构建多个并行空间,这易于损害原始知识图的关系事实。例如,原始图中有一个金色三联体不能由任何并行空间中的实体和关系组成。
总之,上述所有方法从单个透视图中嵌入了知识图形,即,来自本地视图或全局视图。因此,他们未能均匀地学习本地和全球知识表示。为此,我们借了多视图学习方法的想法[11,12提出了一种多视角翻译学习模型MvTransE,该模型同时从全局和局部视角嵌入关系事实。首先,我们通过实体的语义和结构视角生成多个并行子图,以准确捕获知识图的局部视图知识。然后,将原始知识图和生成的并行子图分别嵌入到全局视图和局部视图空间中。最后,我们提出了一种多视图融合策略来集成关系事实的多视图表示。我们概述了本文的主要贡献如下:(1)我们将多视图学习的思想融入到我们的模型MvTransE中,它可以从全局和局部视图中精确地学习相关事实(2)我们的模型从语义和结构角度提取本地知识,以构建多个并行子图,以便通过学习局部视图的关系事实表示来解决实体空间拥塞问题(3)MvTransE采用多视图融合策略,将知识图的全局视图和局部视图表示结合起来,有效地克服了并行空间中关系事实的缺失(4)广泛的实验结果证明了我们的方法在两个知识图形完成任务中优于最先进的模型
2.相关工作
自知识图出现以来,许多研究者研究了各种表示图中相关事实的方法。最初,一些基于嵌入的模型,如结构化嵌入(SE) [13],语义匹配能量(中小企业)[14,15]、潜在因素模型(LFM) [16]和神经张量网络(NTN) [17]在知识表示方面取得了相当好的性能,但由于计算复杂性,无法处理大规模图。近年来,基于翻译的模型因其有效和鲁棒的表示能力而受到广泛关注。
TransE [5]是第一种基于翻译的方法,它处理关系r翻译自h来t三连音(h,r,t).因此,Transe定义了评分函数 ,在为·为l1/ l2代表NOMM-1或NOMM-2计算。在模型训练期间,如果是三重态(h,r,t),翻译原则 ,其中哪个过程如图所示1.也就是说,Transe保持翻译向量( )近似尾部矢量t.Transe在代表简单的关系事实中实现了显着的性能,即1比1三胞胎。然而,由于刚性平移原理,它具有局限性地处理包括1-to-n,n-to-1和n-t〜n三态的复杂关系事实。
Transh [6]试图通过实现实体在涉及不同关系时具有唯一表示来解决TransE的问题。具体来说,每个三连音(h,r,t),Transh项目h和t对关系r特定的超平面是获取投影矢量的 和 .评分函数定义为 .
transr / ctransr [7]分别模型实体和不同矢量空间中的关系,即实体矢量空间和关系矢量空间。对于每个关系r,它设置了一个投影矩阵米r将实体的传染媒介从实体向量空间映射到关系向量空间,即, 和 .其评分函数为 .
Transd [8]同时考虑实体和关系的多样性。它使用实体关系对的两个向量的乘积来替换投影矩阵,即, 和 .TransD更可扩展,可以应用于大规模知识图表。其评分函数为 .
TranSparse [9]考虑知识图中的实体和关系的异质性和不平衡,这通常被以前的作品忽略。透明构建自适应稀疏矩阵和 ,代替投影矩阵,同时防止简单关系事实的过度舒服和复杂关系事实的垫底。其评分函数为 .
ft [18]及DT [19]分别设计灵活的平移原则和动态转换原则。在某种程度上,他们提高了处理复杂关系事实的能力。基本上,他们专注于阐述各种翻译原则,以更准确地学习复杂的关系事实。transat [17]和GaN的框架[20.分别利用注意机制和生成对抗网络来提高模型性能。然而,上述方法都是从单一角度将完整知识图自然嵌入到一个统一的向量空间中,并没有彻底解决空间拥塞问题。
PuTransE [21]是在线求解的超参数敏感性问题以及实体和关系的空间拥塞的在线和强大改进,以及动态知识图的处理。它采用多个并行空间来学习实体和关系的向量,从而避免在复杂的关系事实中的空间拥塞。因此,Putranse在链路预测任务上实现了最先进的性能。然而,Putranse仍然有两个弱点,导致性能限制。首先,Putranse在随机并行空间生成期间引起简单关系事实的过度稀疏性。它执行知识提取,包括不仅复杂的关系事实,而且还具有稀疏简单的关系事实。因此,它可能无法通过单个子图学习简单关系事实的完整矢量表示。其次,Putranse随机选择本地知识来构建多个并行空间,这易于损害知识图的原始事实。例如,在原始图中存在金色三联,即正样品,其不能由实体和任何并行空间中的关系组成。这种情况降低了Putranse的关系事故预测准确性。
我们的方法
在本节中,我们介绍了MVTRANSE的详细信息,它们分别嵌入了来自全局视图和本地视图的关系事实。MVTRANSE的工作流程主要由三个步骤组成。第一步(部分3.1)是生成多个并行子图,以便准确地提取知识图的特定本地关系事实。第二步(部分3.2)旨在判别地将知识图嵌入多个并行空间,以获取关系事实的多视图表示。最后一步(部分3.3)集成了多个版本的知识表示,即保险丝本地 - 查看实体和关系的全局视图表示。数字2呈现MVTRANSE的多视图知识学习过程。
3.1.子图生成
子图生成的目的是从不同角度提取局部关系事实,在接下来的图嵌入步骤中将实体和关系稀疏地嵌入到不同的平行向量空间中,从而解决实体的空间拥塞问题。因此,我们基于知识图的不同关系构造多个并行子图。每个子图主要包含从特定关系中选择的局部关系事实。
最初,我们在子图生成过程中给出了一些相关符号的定义。我们将知识图定义为G = (e,r,t),E和R表示实体集和图表组G, 分别;T⊆E × R × E代表一个三重三态组G.和子是最终生成的子图设置,是一个子图∈ ,和和表示的实体集和关系集 ,分别。算法1演示子图生成的详细信息,它主要由下面给出的两个步骤组成。
3.1.1。语义相关的实体选择
为了准确学习当地关系事实,我们首先选择相关实体,以确保其知识的语义一致性尽可能多。也就是说,子图中的实体应该基于特定关系在语义上彼此相关。我们随机选择一个关系r从关系组R然后生成实体集Er,由提取的实体组成互连的r.自Er是通过关系产生的r;所以,r是当前子图的语义中心吗.
3.1.2。组织扩张子图
为了学习潜知识而联想r更全面地,我们需要根据集合中的实体的本地图形结构扩展每个子图Er.该步骤确保产生的子图同时包含本地关系事实的语义和结构特征。具体来说,我们首先随机选择一个实体e我从Er作为展开子图的起始实体 .然后,我们随机选择一个三重态,其头或尾实体是起始实体e我并将头部或尾部实体添加到子图中 .因此,我们可以得到的局部结构信息Er关于G通过重复上述两个操作n年代时间。由于在子图展开中随机选择实体和三元组,每个子图从Er可以包括不同的关系事实,其在语义和结构方面使产生的子图彼此略有不同。此后,关于判别学习本地关系事实,这些随机操作确保MVTRANSE可以从多个角度学习本地知识表示。
|
此外,为了使每个子图聚焦在特定的关系事件上,我们需要控制避免提取过度不相关的事实的子图的规模。我们设置了HyperParameter.nt控制子图中的三联网数量,设置HyperParametern年代控制每个子图的膨胀速度,设置HyperParameter要控制三联选择的最大迭代,并设置HyperParametern控制生成的子图数。
3.2。嵌入图形
此步骤的目标是获得实体和关系的全局视图表示和本地视图表示。因此,我们执行原始知识图表G嵌入和子图嵌入分别学习全局知识和局部知识。在每个向量空间中,我们将下列方程定义为评分函数fr(h,t)翻译每一个三连音(h,r,t): 在哪里h,r,和t是矢量表示h,r,和t, 是l1规范或l2-norm距离。
在MVtranse中,我们使用基于边缘的损失函数作为每个矢量空间中的优化目标,其定义如下: 在哪里是一组嵌入式矢量空间,T是一组图中的一组正三胞胎,而且T′是一组由随机替换每个正三胶片的头部(或尾部)产生的一组负三胞胎(h,r,t)∈ T,是区分正和负三胞胎的固定边距距离。我们使用随机梯度下降(SGD)[22]最小化损失功能。
算法2提出了多视图图嵌入的过程,将知识图和子图分别嵌入到单个向量空间中。这样,我们就会得到n + 1 vector spaces, including one global-view vector space andn本地视图矢量空间。全局视图矢量空间获得了所有实体和关系的全局视图表示;本地视图传染媒介空间差异学地学习了来自不同语义和结构视角的复杂关系事实的本地视图表示。
|
3.3。多维融合策略
在本节中,我们提出了一种多视图融合策略,可以采用自适应选择原则,以集成全球视图传染媒介空间和本地视图传染媒介空间的知识表示。每次测试三联体(h,r,t),我们定义一个评分估计函数 计算矢量空间的距离得分,然后根据最小分数动态地选择三联网上的最终表示。评分估计函数定义如下: 其中∆是其中的向量空间其中包含h,r,和t;hΔ,rΔ和tδ是载体的h,r在矢量空间δ中。
由于每个并行矢量空间通常包含与特定关系相关的本地关系事实,因此我们的模型可以巧妙地解决空间拥塞问题。此外,MVtranse在知识图中构建一个全局视图矢量空间,其中包含了知识图中的完整知识表示,这使得任何测试三重态能够找到知识表示。因此,我们的模型显着提高了学习简单关系知识的性能。
4.实验
在本节中,我们研究了我们在四个公共数据集,即WN18,Wn18RR,WN11和FB15K-237下的链路预测和三联分类任务中的模型的性能。
4.1。数据集
Wordnet [2]是英语词汇的大型知识图,在图嵌入工作中得到了广泛的应用。在WordNet中,将代表一个基本词汇概念的同义词集作为一个实体,并在这些同义词集之间建立各种语义关系。在接下来的实验中,我们使用WordNet的三个公共子集,即WN18、WN18RR和WN11。WN18包含18个关系和40943个实体。WN18RR是由detmers等人引入的WN18的改良版本[23],它删除了逆转关系事件,避免了表示任务中的信息泄漏问题。WN11由11个关系和38696个实体组成。FreeBase是一个大型协作知识图,储存了现实世界的常规事实。我们使用FreeBase的子集,即FB15K-237 [21],其中包括237个关系和14541个实体。表格1给出了上述数据集的统计结果。
|
4.2.链接预测
链路预测的目的是预测丢失的头部实体h或尾巴实体t测试三连音(h,r,t).在这个实验中,我们取实体h(要么t)错过了测试三胞胎作为正确的实体,所有其他实体被视为候选实体。首先,我们通过更换构建候选三胞胎h(要么t)测试三联体。然后,通过我们模型的评分函数来计算每个三联网的链路预测得分。最后,候选实体和正确实体基于其预测分数按升序排序。我们采用了[5]评估我们的模型:每个正确实体的平均等级(即平均等级)和排名在前10(即,HITS @ 10)中排名的正确实体的平均数量。显然,良好的预测性能应达到高点@ 10和低平均等级。
注意,候选三元组可能已经存在于知识图中,因此这些候选三胞胎应被视为正确的三元组。这些候选三胞胎的得分可能低于正确的三元组。因此,我们应该过滤掉已经出现在火车,验证和测试集中的这些候选三胞胎。如果我们在测试之前过滤出这些候选三胞胎,请表示评估设置,如果在测试之前过滤掉这些候选三胞胎,否则表示通过“RAW”表示。
我们将MVTRANSE与WN18,WN18RR和FB15K-237数据集的链路预测任务中的一些最先进的方法进行比较。在WN18上,将MVTranse与Rescal进行比较[24],SE,SME,LFM,Transe,Transh,Transr / Ctransr,Putranse和Transat在表中2.在表格中3.,我们将MvTransE与三种竞争方法DistMult [25,复杂的26]和ConvE [23在WN18RR和FB15K-237数据集上,两者都没有在WN18数据集上找到信息泄漏问题。我们直接使用发布文件中报告的结果或[7由于相同的实验设置。对于MvTransE,我们的实验设置如下。
|
|
4.2.1。准备生成子图设置
在WN18上,我们设置子图的数量n = 5000, the expanding speed of subgraphsn年代∈[50, 450], and the size of subgraphsnt∈(200、1500)。在WN18RR上,我们设置了子图的数量n = 5000, the expanding speed of subgraphsn年代∈[50, 300], and the size of subgraphsnt∈(200、1000)。在FB15K-237上,我们设置了子图的数量n = 5000, the expanding speed of subgraphsn年代∈[100,350],子图的大小nt∈[1000, 2200].
4.2.2。图嵌入安装
vectors的维度k在{25,30,35,40,50}之间设置,培训阶段时代在{200,500,1000}中。在全球视图矢量空间中,我们设定了学习率在{0.01,0.005,0001,0.0008}中,保证金值在{2,3,3.5,4,4.5,5,5.5}中,最小批大小B0在{100,200,500}中。对于每个数据集,我们通过验证集选择最佳参数配置,它们如下:k= 35, epoch = 1000,= 0.005, = 3.5,B0 = 100 on WN18;k= 35, epoch = 1000,= 0.0008,= 5.5,B0 = 100 on WN18RR;k= 35, epoch = 1000, = 0.001, = 3,B0 = 100 on FB15K-237. In local-view spaces, we randomly initialize the learning rate和边缘在一定范围内,并获得最佳参数设置,如下所示:∈(0.001,0.005),∈[1.5, 5.5] on WN18;∈(0.0008,0.005),∈[3.5, 5.5] on WN18RR;∈(0.005,0.015),∈[3.5,5.5]在FB15K-237上。
表格2给出了三种模型设置的实验结果:(1)MvTransE (Global-view)表示使用全局视图表示的预测结果。(2) MvTransE (Local-view)表示使用所有并行Local-view表示的预测结果。(3) MvTransE (Multiview)表示由多视图融合策略得到的集成多视图表示的预测结果。从表中可以看出2,多视图表示比全局视图和局部视图表示产生更好的结果。结果表明,我们的多视角知识表示方法是有效的。详细地说,我们的方法在平均秩度量上大大优于最先进的方法。在Hits@10中,我们的方法也优于所有基线方法,在“Raw”下获得最佳性能,在“Filt”设置下获得与TransAt相同的最佳性能。
表格3.给出了MvTransE (Multiview)在WN18RR和FB15K-237上的结果,进一步说明了我们方法的优点。显然,MvTransE (Multiview)明显优于WN18RR上的所有方法,在两个指标上实现了最先进的性能。在FB15K-237上,MvTransE (Multiview)在Mean Rank度量上取得了所有方法中最好的性能,与ConvE在Hits@10度量上的性能相同。特别是,我们的模型在Mean Rank度量中在所有三个不同的数据集上都取得了出色的性能,该度量评估了所学知识表示的整体质量。这是因为MvTransE旨在从多个角度学习知识表示,并将这些表示动态地融合为一个最佳组合。
为了进一步解释上述观测结果,我们给出了我们方法对WN18各类型相关事实的预测结果。表格4根据四个关系类别列出WN18中三胞胎的类型分布。表格5在每个关系类别上介绍三种模型设置的实验结果。具体来说,全局视图设置优于预测1到1,1对的本地视图设置N头,N在两个度量标准上 - 1尾,其实际上属于简单的关系事实学习类别。相反,本地视图设置在预测复杂的关系事实中表现出卓越的性能,即,包括N- - - - - - - - -N,N-to-1 head,1-to-N尾部事实学习范畴。显然,通过结合全局视图和本地视图设置的优点,多视图方法在学习简单和复杂的关系事实方面取得了最好的性能。
|
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
粗体值表示相应指标中的最佳性能。 |
4.3。三胞分类
三重分类任务的目的是确定给定的三重(h,r,t)是正确的与否。在这个实验中,我们采用WN11验证我们方法的有效性。在上一项工作的实验环境之后[5[我们设置了分类阈值对于每个关系r.为了最大限度地提高分类准确性,我们优化在验证集上。进行测试三倍(h,r,t),如果它的分数低于 ,它将被归类为阳性样本,否则是负样品。
我们选择SE,SME,单层模型(SLM)[17]、LFM、NTN、TransE、TransH、puTransE为基线。我们使用[7,因为数据集是相同的。对于MvTransE,我们的实验设置如下。
4.3.1。生成子图设置
我们设置了子图数n= 5000,随机行走的长度n年代∈[50, 300], and the size of subgraphsnt∈(200、1000)。
4.3.2。图嵌入安装
vectors的维度k设置在{15,20,25}之间,训练阶段时代在{200,500,1000}中。在全球视图矢量空间中,我们设定了学习率其中{0.02,0.01,0.05}为边距值在{3,4,4.5,5}中,和小纤维大小B0在{100,200,500}中。我们通过验证集选择最佳配置,如下所示:k = 20, epoch = 1000, = 0.01, = 4.5,B0 = 100. In local-view vector spaces, we randomly initialize the learning rate∈[0.005,0.015],边际值∈[3.5,5.5]。
Triplet分类的实验结果如图所示3..显然,MVtranse在所有基线方法中获得最佳性能。与基于转换的方法相比,即Transe和Transh,我们的方法能够通过从原始知识图中构建子图来更全面地学习复杂的关系事实。另一方面,我们的方法占据了最近竞争对手的竞争对手,因为我们的知识融合策略,利用了适应性选择原则,合理地集成了全球视图和本地视图知识陈述。因此,MVTRANSE更适合嵌入大型和复杂的知识图表。由于其多视图知识学习和融合方法,MVtranse在知识图形完成任务中具有很大的优势。
5.结论和未来的工作
在这项工作中,我们提出了一个名为MVTRANSE的多视图翻译学习模型,该模型分别呈现来自全局视图和本地视图的图形关系事实。通过解决实体空间拥塞问题和关系事实损伤问题,MVTranse实现了最先进的性能。广泛的实验表明,MVTRANSE在链路预测任务和三联分类任务上占据了最先进的模型。未来,我们将专注于子图建设方案,以更有效地学习当地关系事实。
数据可用性
用于支持本研究结果的数据可根据要求可从相应的作者获得。
利益冲突
作者声明他们没有利益冲突。
致谢
该工作得到了中国天然科学基金(NOS。U1811264,61966009和U1711263),是广西省的自然科学基金(No.2020GXNSFAA159055,2019GXNSFBA245059和2019GXNSFBA245059),是广西创新驱动的开发项目(美国专利号AA17202024),北海科技项目合同(No.2082001)。
参考
- R. Ronald Bakker,“知识图:科学知识的表示和结构”,1987。查看在:谷歌学术搜索
- G. A. Miller,“WordNet:英语词汇数据库,”ACM的通信,卷。38,不。11,pp。39-41,1995。查看在:出版商的网站|谷歌学术搜索
- K. D. Bollacker, C. Evans, P. Paritosh, T. Sturge, J. Taylor,“Freebase:一个协作创建的用于构建人类知识的图形数据库”,收录于数据管理问题特别兴趣小组会议记录,PP。2008年6月,加拿大温哥华1247-1250。查看在:谷歌学术搜索
- 董晓东,E. Gabrilovich, G. Heitz等,“知识库:一种网络规模的概率知识融合方法”,发表于知识发现和数据挖掘的特殊兴趣小组的诉讼程序,pp.601-610,纽约,纽约,美国,2014年8月。查看在:谷歌学术搜索
- B. Antoine, N. Usunier, A. Garc´ıa-Dur´an, J. Weston,和O. Yakhnenko,“为建模多关系数据翻译嵌入”,在神经信息处理系统的程序,pp。2787-2795,湖泊湖,NV,美国,2013年12月。查看在:谷歌学术搜索
- Z.Wang,J. Zhang,J. Feng和Z. Chen,“通过翻译超平面嵌入”知识图表“人工智能进展协会论文集,pp.1112-1119,加拿大魁北克市,2014年7月。查看在:谷歌学术搜索
- Lin Y., Liu Z., Sun M., Liu Y., and X. Zhu, " Learning entity and relation embedding for knowledge graph completion, " in chinese, 2005人工智能进展协会论文集,第2181-2187页,Austion, TX, USA, 2015年1月。查看在:谷歌学术搜索
- G. Ji,S. He,L.Xu,K. Liu和J. Zhao,“通过动态映射矩阵嵌入的知识图表”计算机语言学协会论文集,PP。687-696,北京,中国,2015年7月。查看在:谷歌学术搜索
- 纪光,刘凯,何士生,“基于自适应稀疏转移矩阵的知识图补全”《人工智能进展协会学报》,第985-991页,菲尼克斯,AZ,美国,2016年2月。查看在:谷歌学术搜索
- Yi Tay,A.T.Luu和S. C. Hui,“对动态知识图表的链路预测的多个嵌入的非参数估计”《人工智能进展协会学报》,第1243-1249页,加利福尼亚州旧金山,美国,2017年2月。查看在:谷歌学术搜索
- X. Tian xia,D.大成陶,T.陶梅和Y.永东张,“多维探索光谱嵌入”IEEE在系统,人和Cybernicics上的交易,B部分(Cybernetics),卷。40,不。6,PP。1438-1446,2010。查看在:出版商的网站|谷歌学术搜索
- D. Zhai,H. Chang,S. Shan,X. Chen和W. Gao,“多视图度量学习与全球一致性和局部光滑,”美国计算机学会智能系统与技术汇刊,第3卷,第2期。3,第1-22页,2012。查看在:出版商的网站|谷歌学术搜索
- B.Antoine,J. Weston,R. Collobert和Y.Bengio,“学习结构嵌入的知识库”中《人工智能进展协会学报》,第301-306页,旧金山,加州,美国,2011年2月。查看在:谷歌学术搜索
- B.Antoine,X.Glorot,J. Weston和Y.Bengio,“联合学习文字语义解析的文字和意义表示,”人工智能和统计的诉讼程序,第127-135页,西班牙加那利群岛,2012年4月。查看在:谷歌学术搜索
- A.Bordes,X.Glorot,J. Weston和Y.Bengio,“一种用于学习多关系数据的语义匹配能源功能”机器学习,第94卷,第94期2, pp. 233 - 259,2014。查看在:出版商的网站|谷歌学术搜索
- R. Jenatton,N.LeRoux,B.Antoine和G. Obozinski,“高度多关键数据的潜在因子模型”神经信息处理Sysytems的诉讼程序,页3176-3184,太浩湖,NV,美国,2012年12月。查看在:谷歌学术搜索
- R. Socher,D. Chen,C. D. Manning和A. Y.Ng,“2013年关于知识库完成的神经张量网络推理”2013。查看在:谷歌学术搜索
- 冯建军,黄敏,王敏,周敏,余辉,朱旭东知识表示与推理论文集,页557-560,南非开普敦,2016年4月。查看在:谷歌学术搜索
- 朱民,顾廷斌,钱建军,张建军,“基于动态翻译的知识图嵌入”,《知识图谱研究》,IEEE访问, vol. 5, pp. 20898-20907, 2017。查看在:出版商的网站|谷歌学术搜索
- P.F.王,李和潘,“在知识代表学习中纳入了阴性抽样,”人工智能进展协会论文集,pp. 2005-2012,新奥尔良,罗,美国,2018年2月。查看在:谷歌学术搜索
- K. Toutanova和D. Chen,“对知识库和文本推理的观察与潜在特征”,发表于持续矢量空间的研讨会及其组成性,第57-66页,北京,中国,2015年7月。查看在:谷歌学术搜索
- J. C. Duchi, E. Hazan,和Y. Singer,“在线学习和随机优化的自适应次梯度方法”,机床学习研究,卷。12,pp。2121-2159,2011。查看在:谷歌学术搜索
- Tim Dettmers,P. Minervini,P. Stenetorp和S.Riedel,“卷积2D知识图形嵌入”人工智能进展协会论文集,第1811-1818页,美国路易斯安那州新奥尔良,2018年2月。查看在:谷歌学术搜索
- M. Nickel, V. Tresp,和H. P. Kriegel,“关于多关系数据的集体学习的三向模型”国际机器学习会议论文集,第809-816页,贝尔维尤,华盛顿州,美国,2011年2月。查看在:谷歌学术搜索
- 杨,W.-T。高建平,邓丽,“基于学习和推理的知识库嵌入实体和关系”,《计算机科学与技术》国际学习陈述会议诉讼程序,第1-13页,圣地亚哥,加州,美国,2015年12月。查看在:谷歌学术搜索
- Th´eo Trouillon, J. Welbl, S. Riedel, E.´ric gasier,和G. Bouchard,“简单链接预测的复杂嵌入”,在国际机器学习会议论文集,第2071-2080页,纽约,美国,2016年6月。查看在:谷歌学术搜索
版权
版权所有©2020 Chenzhong Bin等人。这是分布下的开放式访问文章创意公共归因许可证如果正确引用了原始工作,则允许在任何媒体中的不受限制使用,分发和再现。