Think and Retrieval: A Hypothesis Knowledge Graph Enhanced Medical Large Language Models

要約

私たちは、大規模言語モデル (LLM) の台頭が自然言語処理の分野におけるタスクのパフォーマンスにどのような大きな影響を与えるかを調査します。
私たちは、検索拡張生成 (RAG) と微調整 (FT) という 2 つの戦略に焦点を当て、ナレッジ グラフを活用して医療 LLM を強化する仮説ナレッジ グラフ強化 (HyKGE) フレームワークを提案します。
LLM とナレッジ グラフを統合することにより、HyKGE は精度と解釈可能性の課題に対処する際に優れたパフォーマンスを発揮し、医療分野での潜在的なアプリケーションを提示します。
実世界のデータセットを使用した当社の評価は、特に複雑で困難なシナリオにおいて、正確な知識を正確な自信を持って提供する HyKGE の優位性を強調しています。
コードは公開されるまで利用可能です。

要約(オリジナル)

We explore how the rise of Large Language Models (LLMs) significantly impacts task performance in the field of Natural Language Processing. We focus on two strategies, Retrieval-Augmented Generation (RAG) and Fine-Tuning (FT), and propose the Hypothesis Knowledge Graph Enhanced (HyKGE) framework, leveraging a knowledge graph to enhance medical LLMs. By integrating LLMs and knowledge graphs, HyKGE demonstrates superior performance in addressing accuracy and interpretability challenges, presenting potential applications in the medical domain. Our evaluations using real-world datasets highlight HyKGE’s superiority in providing accurate knowledge with precise confidence, particularly in complex and difficult scenarios. The code will be available until published.

arxiv情報

著者 Xinke Jiang,Ruizhe Zhang,Yongxin Xu,Rihong Qiu,Yue Fang,Zhiyuan Wang,Jinyi Tang,Hongxin Ding,Xu Chu,Junfeng Zhao,Yasha Wang
発行日 2023-12-26 04:49:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク