CP-KGC: Constrained-Prompt Knowledge Graph Completion with Large Language Models

要約

ナレッジ グラフ補完 (KGC) は、既存の知識を利用して、ナレッジ グラフ内の欠落している接続を推定および推測することを目的としています。
SimKGC のようなテキストベースのアプローチは、グラフ埋め込み手法を上回っており、帰納的 KGC の可能性を示しています。
ただし、テキストベースの方法の有効性は、エンティティのテキスト記述の品質に依存します。
この論文では、大規模言語モデル (LLM) が効果的なテキストを生成できるかどうかという重要な問題を特定します。
この論文では、LLM で生成されたテキストの幻覚を軽減するために、データ品質を向上させるためのコンテキスト制約としてエンティティとそのテキスト記述を利用する制約ベースのプロンプトを導入します。
当社の Constrained-Prompt Knowledge Graph Completion (CP-KGC) メソッドは、低リソースのコンピューティング条件下で効果的な推論を実証し、WN18RR および FB15K237 データセットでの以前の結果を上回ります。
これは、KGC タスクへの LLM の統合を示し、将来の研究に新しい方向性を提供します。

要約(オリジナル)

Knowledge graph completion (KGC) aims to utilize existing knowledge to deduce and infer missing connections within knowledge graphs. Text-based approaches, like SimKGC, have outperformed graph embedding methods, showcasing the promise of inductive KGC. However, the efficacy of text-based methods hinges on the quality of entity textual descriptions. In this paper, we identify the key issue of whether large language models (LLMs) can generate effective text. To mitigate hallucination in LLM-generated text in this paper, we introduce a constraint-based prompt that utilizes the entity and its textual description as contextual constraints to enhance data quality. Our Constrained-Prompt Knowledge Graph Completion (CP-KGC) method demonstrates effective inference under low resource computing conditions and surpasses prior results on the WN18RR and FB15K237 datasets. This showcases the integration of LLMs in KGC tasks and provides new directions for future research.

arxiv情報

著者 Rui Yang,Li Fang,Yi Zhou
発行日 2023-10-12 12:31:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク