要約
最近の進歩は、複雑な推論の問題を解決する際に大規模な言語モデル(LLM)が幻覚を起こしやすく、誤った結果につながることを強調しています。
この問題に取り組むために、研究者はLLMSの推論能力を向上させるために知識グラフ(KG)を組み込みます。
ただし、既存の方法は2つの制限に直面しています。1)彼らは通常、質問に対するすべての答えがKGSに含まれており、KGSの不完全性の問題を無視し、2)KGを静的リポジトリとして扱い、内在する暗黙の論理推論構造を見落としていると仮定します。
kgs。
この論文では、KGSとLLMSの間の共同増強を達成する革新的な神経系シンボリックエージェントフレームワークであるSymagentを紹介します。
KGSを動的環境として概念化し、複雑な推論タスクをマルチステップインタラクティブプロセスに変換し、KGSが推論プロセスに深く参加できるようにします。
Symagentは、エージェントプランナーとエージェントと執行者の2つのモジュールで構成されています。
エージェントプレーナーは、KGSから象徴的なルールを抽出するLLMの帰納的推論能力を活用し、効率的な質問分解を導きます。
エージェントと執行者は、KGおよび外部文書からの情報を統合するための事前定義されたアクションツールを自律的に呼び出し、KGの不完全性の問題に対処します。
さらに、オンライン探索とオフラインの反復ポリシー更新フェーズを含む自己学習フレームワークを設計し、エージェントが推論の軌跡を自動的に合成し、パフォーマンスを改善できるようにします。
実験結果は、LLMバックボーンが弱い(つまり、7Bシリーズ)、さまざまな強力なベースラインと比較して、より良いまたは同等のパフォーマンスが得られることを示しています。
さらなる分析により、エージェントが不足しているトリプルを特定し、自動KGの更新を容易にすることができることが明らかになりました。
要約(オリジナル)
Recent advancements have highlighted that Large Language Models (LLMs) are prone to hallucinations when solving complex reasoning problems, leading to erroneous results. To tackle this issue, researchers incorporate Knowledge Graphs (KGs) to improve the reasoning ability of LLMs. However, existing methods face two limitations: 1) they typically assume that all answers to the questions are contained in KGs, neglecting the incompleteness issue of KGs, and 2) they treat the KG as a static repository and overlook the implicit logical reasoning structures inherent in KGs. In this paper, we introduce SymAgent, an innovative neural-symbolic agent framework that achieves collaborative augmentation between KGs and LLMs. We conceptualize KGs as dynamic environments and transform complex reasoning tasks into a multi-step interactive process, enabling KGs to participate deeply in the reasoning process. SymAgent consists of two modules: Agent-Planner and Agent-Executor. The Agent-Planner leverages LLM’s inductive reasoning capability to extract symbolic rules from KGs, guiding efficient question decomposition. The Agent-Executor autonomously invokes predefined action tools to integrate information from KGs and external documents, addressing the issues of KG incompleteness. Furthermore, we design a self-learning framework comprising online exploration and offline iterative policy updating phases, enabling the agent to automatically synthesize reasoning trajectories and improve performance. Experimental results demonstrate that SymAgent with weak LLM backbones (i.e., 7B series) yields better or comparable performance compared to various strong baselines. Further analysis reveals that our agent can identify missing triples, facilitating automatic KG updates.
arxiv情報
著者 | Ben Liu,Jihai Zhang,Fangquan Lin,Cheng Yang,Min Peng,Wotao Yin |
発行日 | 2025-02-05 15:37:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google