要約
不完全なナレッジ グラフ (KG) に対する複雑な論理クエリに答えるのは困難です。
これまでの研究のほとんどは、エンティティ/関係の埋め込みを学習し、さまざまなニューラル ネットワークを使用して一次論理演算子をシミュレートすることに焦点を当てていました。
ただし、世界の知識を共有して論理的推論を改善できないことがボトルネックとなり、最適なパフォーマンスが得られません。
この論文では、LACT と呼ばれるカリキュラムベースの論理認識型指導調整フレームワークを含む、大規模言語モデル (LLM) 上のナレッジ グラフ上の複雑な論理推論スキーマを提案します。
具体的には、二分木分解を介して任意の一次論理クエリを強化し、LLM の推論能力を刺激します。
さまざまなタイプの複雑なクエリ間の難易度のギャップに対処するために、シンプルで柔軟なロジックを意識したカリキュラム学習フレームワークを設計します。
広く使用されているデータセットにわたる実験では、LACT が高度な手法に比べて大幅に改善され (平均 +5.5% の MRR スコアをもたらす)、新しい最先端を達成していることが実証されています。
私たちのコードとモデルは、間もなく GitHub と ハグフェイス でリリースされる予定です。
要約(オリジナル)
Answering complex logical queries over incomplete knowledge graphs (KGs) is challenging. Most previous works have focused on learning entity/relation embeddings and simulating first-order logic operators with various neural networks. However, they are bottlenecked by the inability to share world knowledge to improve logical reasoning, thus resulting in suboptimal performance. In this paper, we propose a complex logical reasoning schema over knowledge graphs upon large language models (LLMs), containing a curriculum-based logical-aware instruction tuning framework, named LACT. Specifically, we augment the arbitrary first-order logical queries via binary tree decomposition, to stimulate the reasoning capability of LLMs. To address the difficulty gap among different types of complex queries, we design a simple and flexible logic-aware curriculum learning framework. Experiments across widely used datasets demonstrate that LACT has substantial improvements~(brings an average +5.5% MRR score) over advanced methods, achieving the new state-of-the-art. Our code and model will be released at GitHub and huggingface soon.
arxiv情報
著者 | Tianle Xia,Liang Ding,Guojia Wan,Yibing Zhan,Bo Du,Dacheng Tao |
発行日 | 2024-05-07 16:10:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google