要約
ナレッジ グラフ補完は、欠落しているトリプルで KG を拡張する問題に対処することを目的としています。
この論文では、事前トレーニング済みの言語モデルを使用して、ナレッジグラフの補完をシーケンスからシーケンスへの生成タスクに変換するアプローチ GenKGC を提供します。
さらに、より良い表現学習と高速推論のために、関係ガイド付きデモンストレーションとエンティティ認識階層デコーディングを導入します。
3 つのデータセットでの実験結果は、私たちのアプローチがベースラインよりも優れた、または同等のパフォーマンスを得ることができ、事前にトレーニングされた言語モデルを使用した以前の方法と比較して、より速い推論速度を達成できることを示しています。
また、研究目的で新しい大規模な中国語ナレッジ グラフ データセット AliopenKG500 をリリースします。
コードとデータセットは https://github.com/zjunlp/PromptKG/tree/main/GenKGC で入手できます。
要約(オリジナル)
Knowledge graph completion aims to address the problem of extending a KG with missing triples. In this paper, we provide an approach GenKGC, which converts knowledge graph completion to sequence-to-sequence generation task with the pre-trained language model. We further introduce relation-guided demonstration and entity-aware hierarchical decoding for better representation learning and fast inference. Experimental results on three datasets show that our approach can obtain better or comparable performance than baselines and achieve faster inference speed compared with previous methods with pre-trained language models. We also release a new large-scale Chinese knowledge graph dataset AliopenKG500 for research purpose. Code and datasets are available in https://github.com/zjunlp/PromptKG/tree/main/GenKGC.
arxiv情報
著者 | Xin Xie,Ningyu Zhang,Zhoubo Li,Shumin Deng,Hui Chen,Feiyu Xiong,Mosha Chen,Huajun Chen |
発行日 | 2023-03-14 10:33:15+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google