要約
オープン環境での堅牢な仮説生成の自動化は、AI認知にとって極めて重要です。
誘導論理プログラミング(ILP)を使用して、大規模な言語モデル(LLMS)を搭載したマルチエージェントシステムを統合する新しいフレームワークを導入します。
私たちのシステムのLLMエージェントは、生のテキストデータから直接構造化された象徴的な語彙(述語)とリレーショナルテンプレート、つまり\ ench {言語バイアス}を自律的に定義します。
伝統的にILPの専門家主導のボトルネックであるこの自動化された象徴的な接地(言語バイアスの構築)は、ILPソルバーの事実へのテキストの変換を導き、解釈可能なルールを誘導します。
このアプローチは、事前に定義されたシンボリック構造と純粋なLLMメソッドのノイズ感度に対する従来のILPの依存を克服します。
多様で挑戦的なシナリオでの広範な実験は、優れたパフォーマンスを検証し、自動化され、説明可能な、検証可能な仮説生成のための新しいパスを開きます。
要約(オリジナル)
Automating robust hypothesis generation in open environments is pivotal for AI cognition. We introduce a novel framework integrating a multi-agent system, powered by Large Language Models (LLMs), with Inductive Logic Programming (ILP). Our system’s LLM agents autonomously define a structured symbolic vocabulary (predicates) and relational templates , i.e., \emph{language bias} directly from raw textual data. This automated symbolic grounding (the construction of the language bias), traditionally an expert-driven bottleneck for ILP, then guides the transformation of text into facts for an ILP solver, which inductively learns interpretable rules. This approach overcomes traditional ILP’s reliance on predefined symbolic structures and the noise-sensitivity of pure LLM methods. Extensive experiments in diverse, challenging scenarios validate superior performance, paving a new path for automated, explainable, and verifiable hypothesis generation.
arxiv情報
著者 | Yang Yang,Jiemin Wu,Yutao Yue |
発行日 | 2025-05-27 17:53:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google