DALK: Dynamic Co-Augmentation of LLMs and KG to answer Alzheimer’s Disease Questions with Scientific Literature

要約

大規模言語モデル (LLM) の最近の進歩により、さまざまなアプリケーションにわたって有望なパフォーマンスが達成されています。
それにもかかわらず、ロングテールの知識を統合するという継続的な課題が、特殊な領域での LLM のシームレスな導入を妨げ続けています。
この研究では、この制限に対処し、生物医学の専門下位分野であり世界的な健康上の優先事項であるアルツハイマー病 (AD) の研究におけるその能力を実証するために、LLM と KG の動的共同拡張としても知られる DALK を紹介します。
LLM と KG が相互に強化し合う相乗的なフレームワークにより、まず LLM を活用して AD 関連の科学文献をソースとして進化する AD 固有のナレッジ グラフ (KG) を構築し、次に粗いものから細かいものへのサンプリング手法を利用します。
KG から適切な知識を選択して LLM 推論機能を強化する、新しい自己認識知識検索アプローチ。
当社が構築した AD 質問応答 (ADQA) ベンチマークで実施された実験結果は、DALK の有効性を強調しています。
さらに、KG と LLM を相互に強化するという新たなトピックについて、貴重な洞察とガイドラインを提供できる一連の詳細な分析を実行します。
コードとデータは https://github.com/David-Li0406/DALK で公開します。

要約(オリジナル)

Recent advancements in large language models (LLMs) have achieved promising performances across various applications. Nonetheless, the ongoing challenge of integrating long-tail knowledge continues to impede the seamless adoption of LLMs in specialized domains. In this work, we introduce DALK, a.k.a. Dynamic Co-Augmentation of LLMs and KG, to address this limitation and demonstrate its ability on studying Alzheimer’s Disease (AD), a specialized sub-field in biomedicine and a global health priority. With a synergized framework of LLM and KG mutually enhancing each other, we first leverage LLM to construct an evolving AD-specific knowledge graph (KG) sourced from AD-related scientific literature, and then we utilize a coarse-to-fine sampling method with a novel self-aware knowledge retrieval approach to select appropriate knowledge from the KG to augment LLM inference capabilities. The experimental results, conducted on our constructed AD question answering (ADQA) benchmark, underscore the efficacy of DALK. Additionally, we perform a series of detailed analyses that can offer valuable insights and guidelines for the emerging topic of mutually enhancing KG and LLM. We will release the code and data at https://github.com/David-Li0406/DALK.

arxiv情報

著者 Dawei Li,Shu Yang,Zhen Tan,Jae Young Baik,Sunkwon Yun,Joseph Lee,Aaron Chacko,Bojian Hou,Duy Duong-Tran,Ying Ding,Huan Liu,Li Shen,Tianlong Chen
発行日 2024-05-08 05:38:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク