要約
知識グラフ補完(KGC)は、知識グラフ(KG)中の欠損トリプルを特定することに主眼を置く。大規模言語モデル(LLM)の急速な発展に伴い、KGCタスクのためのLLMベースの手法がいくつか提案されている。しかし、それらのほとんどは、より細かいサブグラフ情報がLLMを支援し、より正確な回答を生成することができるという事実を見落として、プロンプトエンジニアリングに焦点を当てている。本論文では、コンテキスト推論としてサブグラフ情報を利用し、KGCタスクを達成するためにQAアプローチを採用する、〚再生的〛サブグラフに基づくKGC(GS-KGC)と呼ばれる新しい補完フレームワークを提案する。このフレームワークには主に、否定と近傍を生成するように設計されたサブグラフ分割アルゴリズムが含まれる。具体的には、ネガはLLMがより幅広い回答を生成することを促し、ネイバーはLLMの推論に追加の文脈的洞察を提供する。さらに、GS-KGCはKG内の潜在的なトリプルと、KGを超えた新しい事実を発見できることがわかった。例えば、FB15k-237NではLLMベースのモデルCP-KGCと比較してHits@3が5.6%増加し、ICEWS14ではLLMベースのモデルTECHSと比較して9.3%増加した。
要約(オリジナル)
Knowledge graph completion (KGC) focuses on identifying missing triples in a knowledge graph (KG) , which is crucial for many downstream applications. Given the rapid development of large language models (LLMs), some LLM-based methods are proposed for KGC task. However, most of them focus on prompt engineering while overlooking the fact that finer-grained subgraph information can aid LLMs in generating more accurate answers. In this paper, we propose a novel completion framework called \textbf{G}enerative \textbf{S}ubgraph-based KGC (GS-KGC), which utilizes subgraph information as contextual reasoning and employs a QA approach to achieve the KGC task. This framework primarily includes a subgraph partitioning algorithm designed to generate negatives and neighbors. Specifically, negatives can encourage LLMs to generate a broader range of answers, while neighbors provide additional contextual insights for LLM reasoning. Furthermore, we found that GS-KGC can discover potential triples within the KGs and new facts beyond the KGs. Experiments conducted on four common KGC datasets highlight the advantages of the proposed GS-KGC, e.g., it shows a 5.6\% increase in Hits@3 compared to the LLM-based model CP-KGC on the FB15k-237N, and a 9.3\% increase over the LLM-based model TECHS on the ICEWS14.
arxiv情報
著者 | Rui Yang,Jiahao Zhu,Jianping Man,Hongze Liu,Li Fang,Yi Zhou |
発行日 | 2025-01-03 04:12:32+00:00 |
arxivサイト | arxiv_id(pdf) |