KARMA: Leveraging Multi-Agent LLMs for Automated Knowledge Graph Enrichment

要約

包括的かつ最新の知識グラフ(KG)を維持することは、最新のAIシステムにとって重要ですが、科学文献の急速な成長に合わせて手動のキュレーションは拡大するのに苦労しています。
このペーパーでは、非構造化されたテキストの構造化分析を通じてKG濃縮を自動化するために、マルチエージェント大手言語モデル(LLMS)を採用した新しいフレームワークであるKarmaを紹介します。
私たちのアプローチでは、エンティティの発見、関係抽出、スキーマアライメント、および競合解決を繰り返し、ドメイン固有のスキーマを順守しながら既存のグラフ構造に統合する競合の解決にまたがる9つの共同エージェントを採用しています。
3つの異なるドメインからの1,200のPubMedの記事での実験は、知識グラフ濃縮におけるKarmaの有効性を示しています。最大38,230の新しいエンティティを特定しながら、83.1 \%LLM検証の正確性を達成し、多層評価を通じて18.6 \%増加する紛争を削減します。

要約(オリジナル)

Maintaining comprehensive and up-to-date knowledge graphs (KGs) is critical for modern AI systems, but manual curation struggles to scale with the rapid growth of scientific literature. This paper presents KARMA, a novel framework employing multi-agent large language models (LLMs) to automate KG enrichment through structured analysis of unstructured text. Our approach employs nine collaborative agents, spanning entity discovery, relation extraction, schema alignment, and conflict resolution that iteratively parse documents, verify extracted knowledge, and integrate it into existing graph structures while adhering to domain-specific schema. Experiments on 1,200 PubMed articles from three different domains demonstrate the effectiveness of KARMA in knowledge graph enrichment, with the identification of up to 38,230 new entities while achieving 83.1\% LLM-verified correctness and reducing conflict edges by 18.6\% through multi-layer assessments.

arxiv情報

著者 Yuxing Lu,Jinzhuo Wang
発行日 2025-02-10 13:51:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CE, cs.CL, cs.DL パーマリンク