Exploring Large Language Models for Knowledge Graph Completion

要約

ナレッジ グラフは多くの人工知能タスクで重要な役割を果たしますが、不完全さの問題に頻繁に直面します。
この研究では、ナレッジ グラフを完成させるための大規模言語モデル (LLM) の利用を検討します。
私たちはナレッジ グラフのトリプルをテキスト シーケンスとみなして、これらのトリプルをモデル化するためのナレッジ グラフ LLM (KG-LLM) と呼ばれる革新的なフレームワークを導入します。
私たちの手法では、トリプルの実体と関係の記述をプロンプトとして使用し、その応答を予測に利用します。
さまざまなベンチマーク ナレッジ グラフでの実験により、私たちの方法がトリプル分類や関係予測などのタスクで最先端のパフォーマンスを達成できることが実証されました。
また、比較的小規模なモデル (LLaMA-7B、ChatGLM-6B など) の微調整が、最近の ChatGPT や GPT-4 よりも優れていることもわかりました。

要約(オリジナル)

Knowledge graphs play a vital role in numerous artificial intelligence tasks, yet they frequently face the issue of incompleteness. In this study, we explore utilizing Large Language Models (LLM) for knowledge graph completion. We consider triples in knowledge graphs as text sequences and introduce an innovative framework called Knowledge Graph LLM (KG-LLM) to model these triples. Our technique employs entity and relation descriptions of a triple as prompts and utilizes the response for predictions. Experiments on various benchmark knowledge graphs demonstrate that our method attains state-of-the-art performance in tasks such as triple classification and relation prediction. We also find that fine-tuning relatively smaller models (e.g., LLaMA-7B, ChatGLM-6B) outperforms recent ChatGPT and GPT-4.

arxiv情報

著者 Liang Yao,Jiazhen Peng,Chengsheng Mao,Yuan Luo
発行日 2023-08-31 08:53:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク