ChatRule: Mining Logical Rules with Large Language Models for Knowledge Graph Reasoning

要約

論理ルールは関係間の論理的接続を明らかにするために不可欠であり、これにより推論のパフォーマンスが向上し、ナレッジ グラフ (KG) で解釈可能な結果が得られます。
KG に対して意味のある論理ルールをマイニングするための多くの取り組みが行われてきましたが、既存の方法では、ルール空間に対する計算量の多い検索と、大規模な KG に対するスケーラビリティの欠如に悩まされています。
さらに、論理的な接続を明らかにするために重要な関係の意味論を無視することがよくあります。
最近、大規模言語モデル (LLM) は、その創発的な能力と一般化可能性により、自然言語処理やさまざまなアプリケーションの分野で目覚ましいパフォーマンスを示しています。
この論文では、ナレッジ グラフ上で論理ルールをマイニングするための大規模言語モデルの力を解き放つ、新しいフレームワーク ChatRule を提案します。
具体的には、このフレームワークは LLM ベースのルール ジェネレーターで開始され、KG の意味情報と構造情報の両方を利用して LLM に論理ルールを生成するよう促します。
生成されたルールを改良するために、ルール ランキング モジュールは既存の KG からの事実を組み込んでルールの品質を推定します。
最後に、ルール検証機能は LLM の推論能力を利用して、思考連鎖推論を通じてランク付けされたルールの論理的正しさを検証します。
ChatRule は 4 つの大規模な KG で評価されます。
さまざまなルール品質メトリクスと下流タスクを比較し、私たちの手法の有効性と拡張性を示します。

要約(オリジナル)

Logical rules are essential for uncovering the logical connections between relations, which could improve the reasoning performance and provide interpretable results on knowledge graphs (KGs). Although there have been many efforts to mine meaningful logical rules over KGs, existing methods suffer from the computationally intensive searches over the rule space and a lack of scalability for large-scale KGs. Besides, they often ignore the semantics of relations which is crucial for uncovering logical connections. Recently, large language models (LLMs) have shown impressive performance in the field of natural language processing and various applications, owing to their emergent ability and generalizability. In this paper, we propose a novel framework, ChatRule, unleashing the power of large language models for mining logical rules over knowledge graphs. Specifically, the framework is initiated with an LLM-based rule generator, leveraging both the semantic and structural information of KGs to prompt LLMs to generate logical rules. To refine the generated rules, a rule ranking module estimates the rule quality by incorporating facts from existing KGs. Last, a rule validator harnesses the reasoning ability of LLMs to validate the logical correctness of ranked rules through chain-of-thought reasoning. ChatRule is evaluated on four large-scale KGs, w.r.t. different rule quality metrics and downstream tasks, showing the effectiveness and scalability of our method.

arxiv情報

著者 Linhao Luo,Jiaxin Ju,Bo Xiong,Yuan-Fang Li,Gholamreza Haffari,Shirui Pan
発行日 2023-09-13 13:00:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク