知识图谱最新权威综述论文解读:知识图谱应用部分
知识图谱在人工智能的许多领域都发挥了重要作用,综述论文的这一章引入多个最新的基于深度学习的知识驱动方法,主要包括的应用领域有自然语言理解,推荐系统和问答系统。
1 自然语言理解
知识感知的自然语言理解通过将结构化的知识注入一个统一的语义空间中来提高语言表示能力。最新的知识驱动方法将显式的事实知识和隐式的语言表示用于许多自然语言理解任务中。Chen等人[1] 提出了在两个知识图谱上的双图随机游走方法,这两个知识图谱是基于槽的语义知识图谱和基于词的词汇知识图谱,以考虑口语理解中的内部槽关系。Wang等人 [2] 利用加权的词-概念嵌入表示,以基于知识的概念化策略增强了短文本表示学习性能。Peng等人[3] 集成了外部知识库,以建立用于短社交文本中事件分类的异构信息图谱。
语言建模作为基本的NLP任务,需要预测给定的一段文本序列的下一个单词。传统语言建模没有利用文本语料库中经常观察到的实体信息来引入事实知识。如何将知识融入到语言表示中已引起越来越多的关注。知识图谱语言模型(KGLM)[4] 通过选择和复制实体来学习知识。ERNIE-Tsinghua [5] 通过结合预训练和随机masking来融合有价值的实体。BERT-MK [6] 编码图谱的上下文知识,并专注于医疗语料库。ERNIEBaidu[7] 引入了命名实体masking和短语masking机制以将知识集成到语言模型中,并进一步通过持续的多任务学习改进为ERNIE 2.0 [8]。重新思考语言模型的大规模训练和知识图谱的检索,Petroni等人[9] 对语言模型和知识库进行了分析,发现某些事实知识可以通过预训练语言模型得到。
2 问答系统
问答系统应该是知识图谱主要的应用场景之一。基于知识图谱的问答(KGQA)是用知识图谱中的事实来回答自然语言问题。基于神经网络的KGQA方法在分布式语义空间中表示问题和答案,有些方法还将符号知识注入以进行常识推理。KGQA方法分为单一事实问答和多步推理问答。
2.1 单一事实问答
单一事实问答是以知识图谱为外部信息源,面向通过单个知识图谱中的事实就可以回答的简单问题。Bordes等人[10] 利用记忆网络将知识库作为外部记忆用于简单的问答。Dai等人[11] 提出了一种带有注意力剪枝的条件注意力神经网络,以减少搜索空间。为了以人们更能理解的方式生成自然语言答案,COREAQ[12] 引入了复制和检索机制,以seq2seq的方式生成平滑自然的回答,这里,从给定问题中复制或从知识图谱中检索得到语料库词汇,并从中预测出答案。BAMnet[13]采用双向注意机制对问题和知识图谱之间的双向交互进行建模。
虽然深度学习技术在KGQA中得到了广泛的应用,但它们不可避免地增加了模型的复杂性。Mohammed等人[14]通过对有无神经网络的简单KGQA模型进行评估,发现复杂的深度学习模型,如LSTM和带有启发式的门控递归单元(GRU),达到了最先进的水平,非神经模型也取得了相当好的性能。
2.2 多跳推理
这些基于神经网络的方法通过与神经编解码模型的结合得到了改进,但要处理复杂的多跳关系需要更特殊的设计才能进行多跳常识推理。结构化知识提供了丰富的常识信息,并充当了关系归纳偏差,这推动了近年来在符号空间和语义空间之间进行常识知识融合的多跳推理研究。Bauer等人[15] 提出了双向注意力和指针生成解码器,用于有效的多跳推理和答案生成,其中外部常识知识通过ConceptNet中对关系路径进行选择得到。变分推理网络(VRN)[16] 通过reasoning-graph嵌入技术进行多跳逻辑推理,同时能够解决主题实体识别中的不确定性问题。KagNet[17] 从ConceptNet中构建模式子图,并通过GCN、LSTM和基于层次路径的注意力机制来学习基于路径的关系表示。CogQA[18] 将隐式抽取和显式推理相结合,提出了一种基于BERT和GNN的多跳QA认知图谱模型。
3 推荐系统
知识图谱的另一个重要应用就是推荐系统。传统的推荐系统主要是利用用户的历史信息进行协同过滤的方法。然而,这类方法往往无法解决稀疏性问题和冷启动问题。将知识图谱作为外部信息进行集成,使推荐系统具有常识推理的能力。通过注入知识图谱中的实体、关系和属性,许多工作致力于利用基于嵌入的正则化来改进推荐系统。协同CKE[19] 通过基于翻译思想的KGE模型(如TransE)和堆叠的自编码器来联合训练KGE、item的文本信息和视觉内容。MKR[20]通过特征共享和建模高阶项目-实体关联,将多任务知识图谱表示和推荐联系起来。KPRN[21] 将用户和项目之间的交互视为知识图谱中的实体-关系路径,并使用LSTM对该路径进行偏好推断,以捕捉顺序依赖性。PGPR[22] 在基于知识图谱的用户-项目交互上执行强化学习策略引导的路径推理。KGAT [23] 将图注意力网络应用于实体-关系图谱和用户-项目图谱的协同知识图谱上,以通过嵌入传播和基于注意力的聚合操作来编码多跳关系。
参考文献
[1] Y.-N.Chen, W. Y. Wang, and A. Rudnicky, “Jointly modeling inter-slot relations by random walk on knowledge graphs for unsupervised spoken language understanding,” in NAACL, 2015, pp. 619–629.
[2] J.Wang, Z. Wang, D. Zhang, and J. Yan, “Combining knowledge with deep convolutional neural networks for short text classification.” in IJCAI, 2017,pp. 2915–2921.
[3] H.Peng, J. Li, Q. Gong, Y. Song, Y. Ning, K. Lai, and P. S. Yu, “Fine-grained event categorization with heterogeneous graph convolutional networks,” inIJCAI, 2019, pp. 3238–3245.
[4] R.Logan, N. F. Liu, M. E. Peters, M. Gardner, and S. Singh, “Barack’s wife hillary: Using knowledge graphs for fact-aware language modeling,” in ACL,2019, pp. 5962–5971.
[5] Z.Zhang, X. Han, Z. Liu, X. Jiang, M. Sun, and Q. Liu, “ERNIE: Enhanced language representation with informative entities,” in ACL, 2019, pp. 1441–1451.
[6] B.He, D. Zhou, J. Xiao, Q. Liu, N. J. Yuan, T. Xu et al., “Integrating graph contextualized knowledge into pre-trained language models,” arXiv preprintarXiv:1912.00147, 2019.
[7] Y.Sun, S. Wang, Y. Li, S. Feng, X. Chen, H. Zhang, X. Tian, D. Zhu, H. Tian, andH. Wu, “ERNIE: Enhanced representation through knowledge integration,” arXiv preprint arXiv:1904.09223, 2019.
[8] Y.Sun, S. Wang, Y. Li, S. Feng, H. Tian, H. Wu, and H. Wang, “ERNIE 2.0: A continual pre-training framework for language understanding,” in AAAI, 2020.
[9] F.Petroni, T. Rocktaschel, S. Riedel, P. Lewis, A. Bakhtin, Y. Wu, ¨ and A.Miller, “Language models as knowledge bases?” in EMNLP-IJCNLP, 2019, pp.2463–2473.
[10] Bordes,N. Usunier, S. Chopra, and J. Weston, “Large-scale simple question answering with memory networks,” arXiv preprint arXiv:1506.02075, 2015.
[11] Z.Dai, L. Li, and W. Xu, “CFO: Conditional focused neural question answering with large-scale knowledge bases,” in ACL, vol. 1, 2016, pp. 800–810.
[12] S.He, C. Liu, K. Liu, and J. Zhao, “Generating natural answers by incorporating copying and retrieving mechanisms in sequence-to-sequence learning,” in ACL,2017, pp. 199–208.
[13] Y.Chen, L. Wu, and M. J. Zaki, “Bidirectional attentive memory networks for question answering over knowledge bases,” in NAACL, 2019, pp. 2913–2923.
[14] S.Mohammed, P. Shi, and J. Lin, “Strong baselines for simple question answering over knowledge graphs with and without neural networks,” in NAACL, 2018, pp.291–296.
[15] L.Bauer, Y. Wang, and M. Bansal, “Commonsense for generative multi-hop question answering tasks,” in EMNLP, 2018, pp. 4220– 4230.
[16] Y.Zhang, H. Dai, Z. Kozareva, A. J. Smola, and L. Song, “Variational reasoning for question answering with knowledge graph,” in AAAI, 2018, pp. 6069–6076.
[17] B.Y. Lin, X. Chen, J. Chen, and X. Ren, “KagNet: Knowledgeaware graph networks for commonsense reasoning,” in EMNLPIJCNLP, 2019, pp. 2829–2839.
[18] M.Ding, C. Zhou, Q. Chen, H. Yang, and J. Tang, “Cognitive graph for multi-hop reading comprehension at scale,” in ACL, 2019, pp. 2694–2703.
[19] F.Zhang, N. J. Yuan, D. Lian, X. Xie, and W.-Y. Ma, “Collaborative knowledge base embedding for recommender systems,” in SIGKDD, 2016, pp. 353–362.
[20] H.Wang, F. Zhang, M. Zhao, W. Li, X. Xie, and M. Guo, “Multi-task feature learning for knowledge graph enhanced recommendation,” in WWW, 2019, pp.2000–2010.
[21] X.Wang, D. Wang, C. Xu, X. He, Y. Cao, and T.-S. Chua, “Explainable reasoning over knowledge graphs for recommendation,” in AAAI, vol. 33, 2019, pp.5329–5336.
[22] Y.Xian, Z. Fu, S. Muthukrishnan, G. de Melo, and Y. Zhang, “Reinforcement knowledge graph reasoning for explainable recommendation,” in SIGIR, 2019.
[23] X.Wang, X. He, Y. Cao, M. Liu, and T.-S. Chua, “KGAT: Knowledge graph attentionnetwork for recommendation,” in SIGKDD, 2019, pp. 950–958.
-
介绍几个专门面向中文的命名实体识别和关系抽取工具 -
速览EMNLP 2020上录取的知识图谱相关论文 -
介绍一些知识图谱的实际应用类项目 -
手把手教你搭建一个中式菜谱知识图谱可视化系统 -
知识图谱最新权威综述论文解读:知识表示学习部分
本文分享自微信公众号 - 人工智能遇上知识图谱(AIKGbyzeyu)。
如有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
何向南教授团队最新综述:对话推荐系统中的进展与未来挑战
作者|高崇铭、雷文强等 来源|社媒派SMP 背景介绍 推荐系统为工业界带来了巨大的收益。大多数推荐系统都是以静态的方式工作,即从用户历史的交互中来推测用户的兴趣爱好从而做出推荐。然而,这样的方式有缺陷,具体来说,两个较重要的问题无法被解答:1)用户目前具体喜欢什么?2)用户为什么喜欢一个商品? 对话推荐系统(Conversational Recommender Systems,CRSs)的出现,从根本上解决这个问题。其打破了传统静态的工作方式,动态地和用户进行交互,获得用户的实时反馈,进而向用户做出心仪的推荐。此外,借助自然语言的这一工具,CRSs 还可以灵活地实现一系列任务,满足用户的各种需求。 本文将总结 CRSs 中的五个任务梳理其难点。最后本文对 CRSs 未来的科研方向进行了探讨和展望。 论文标题: Advances and Challenges in Conversational Recommender Systems: A Survey 论文链接: https://arxiv.org/abs/2101.09459 论文作者: 高崇铭(中国科学技术大学),雷文强(新加坡国立...
- 下一篇
为什么 Java 中“1000==1000”为false,而”100==100“为true?
为什么 Java 中“1000==1000”为false,而”100==100“为true?这是一个挺有意思的讨论话题。 如果你运行下面的代码: Integera=1000,b=1000; System.out.println(a==b);//1 Integerc=100,d=100; System.out.println(c==d);//2 你会得到 false true 基本知识:我们知道,如果两个引用指向同一个对象,用==表示它们是相等的。如果两个引用指向不同的对象,用==表示它们是不相等的,即使它们的内容相同。 因此,后面一条语句也应该是false 。 这就是它有趣的地方了。如果你看去看 Integer.java 类,你会发现有一个内部私有类,IntegerCache.java,它缓存了从-128到127之间的所有的整数对象。 所以事情就成了,所有的小整数在内部缓存,然后当我们声明类似—— Integerc=100; 的时候,它实际上在内部做的是: Integeri=Integer.valueOf(100); 现在,如果我们去看valueOf()方法,我们可以看...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- Linux系统CentOS6、CentOS7手动修改IP地址
- CentOS8编译安装MySQL8.0.19
- SpringBoot2初体验,简单认识spring boot2并且搭建基础工程
- CentOS6,7,8上安装Nginx,支持https2.0的开启
- CentOS8安装Docker,最新的服务器搭配容器使用
- Jdk安装(Linux,MacOS,Windows),包含三大操作系统的最全安装
- CentOS7,CentOS8安装Elasticsearch6.8.6
- Hadoop3单机部署,实现最简伪集群
- SpringBoot2配置默认Tomcat设置,开启更多高级功能