MKG-Rank: Enhancing Large Language Models with Knowledge Graph for Multilingual Medical Question Answering

要約

大規模な言語モデル(LLM)は、医療質問応答(QA)に顕著な進歩を示していますが、その有効性は、不均衡な多言語トレーニングデータと低リソース言語の医療資源の希少なため、主に英語に限定されています。
医療QAのこの重要な言語ギャップに対処するために、多言語の知識グラフベースの検索ランキング(MKG-Rank)を提案します。これは、英語中心のLLMが多言語医療QAを実行できるようにする知識グラフ強化フレームワークです。
単語レベルの翻訳メカニズムを通じて、当社のフレームワークは、包括的な英語中心の医療知識グラフを低コストでLLMの推論に効率的に統合し、言語間のセマンティックの歪みを緩和し、言語障壁全体で正確な医療QAを達成します。
効率を高めるために、キャッシュおよびマルチアングルランキング戦略を導入して、検索プロセスを最適化し、応答時間を大幅に削減し、関連する医学知識を優先します。
中国語、日本、韓国語、スワヒリ語にわたる多言語の医療QAベンチマークに関する広範な評価は、MKGランクが一貫してゼロショットLLMSを上回り、正確性が最大35.03%増加し、平均検索時間はわずか0.0009秒を維持することを示しています。

要約(オリジナル)

Large Language Models (LLMs) have shown remarkable progress in medical question answering (QA), yet their effectiveness remains predominantly limited to English due to imbalanced multilingual training data and scarce medical resources for low-resource languages. To address this critical language gap in medical QA, we propose Multilingual Knowledge Graph-based Retrieval Ranking (MKG-Rank), a knowledge graph-enhanced framework that enables English-centric LLMs to perform multilingual medical QA. Through a word-level translation mechanism, our framework efficiently integrates comprehensive English-centric medical knowledge graphs into LLM reasoning at a low cost, mitigating cross-lingual semantic distortion and achieving precise medical QA across language barriers. To enhance efficiency, we introduce caching and multi-angle ranking strategies to optimize the retrieval process, significantly reducing response times and prioritizing relevant medical knowledge. Extensive evaluations on multilingual medical QA benchmarks across Chinese, Japanese, Korean, and Swahili demonstrate that MKG-Rank consistently outperforms zero-shot LLMs, achieving maximum 35.03% increase in accuracy, while maintaining an average retrieval time of only 0.0009 seconds.

arxiv情報

著者 Feiyang Li,Yingjian Chen,Haoran Liu,Rui Yang,Han Yuan,Yuang Jiang,Tianxiao Li,Edison Marrese Taylor,Hossein Rouhizadeh,Yusuke Iwasawa,Douglas Teodoro,Yutaka Matsuo,Irene Li
発行日 2025-03-21 01:59:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク