Health-LLM: Personalized Retrieval-Augmented Disease Prediction System

要約

人工知能 (AI)、特に大規模言語モデル (LLM) の最近の進歩により、医療アプリケーションが大幅に進歩し、インテリジェントな医療における可能性が実証されました。
しかし、膨大なデータ量や一貫性のない症状の特徴付け基準などの顕著な課題があり、ヘルスケア AI システムと個々の患者のニーズを完全に統合することができません。
専門的かつ個別化された医療を促進するために、大規模な特徴抽出と医療知識のトレードオフ スコアリングを組み合わせた革新的なフレームワーク Heath-LLM を提案します。
従来の健康管理アプリケーションと比較して、当社のシステムには 3 つの主な利点があります。(1) 健康レポートと医療知識を大規模なモデルに統合し、病気を予測するための大規模な言語モデルに関連する質問をします。
(2) 検索拡張生成 (RAG) メカニズムを利用して特徴抽出を強化します。
(3) 疾患予測の精度を向上させるために、特徴を結合および削除できる半自動特徴更新フレームワークが組み込まれています。
私たちは、Health-LLM システムの有効性を評価するために、多数の健康レポートを実験します。
結果は、提案されたシステムが既存のシステムを上回り、病気の予測と個別の健康管理を大幅に進歩させる可能性があることを示しています。

要約(オリジナル)

Recent advancements in artificial intelligence (AI), especially large language models (LLMs), have significantly advanced healthcare applications and demonstrated potentials in intelligent medical treatment. However, there are conspicuous challenges such as vast data volumes and inconsistent symptom characterization standards, preventing full integration of healthcare AI systems with individual patients’ needs. To promote professional and personalized healthcare, we propose an innovative framework, Heath-LLM, which combines large-scale feature extraction and medical knowledge trade-off scoring. Compared to traditional health management applications, our system has three main advantages: (1) It integrates health reports and medical knowledge into a large model to ask relevant questions to large language model for disease prediction; (2) It leverages a retrieval augmented generation (RAG) mechanism to enhance feature extraction; (3) It incorporates a semi-automated feature updating framework that can merge and delete features to improve accuracy of disease prediction. We experiment on a large number of health reports to assess the effectiveness of Health-LLM system. The results indicate that the proposed system surpasses the existing ones and has the potential to significantly advance disease prediction and personalized health management.

arxiv情報

著者 Mingyu Jin,Qinkai Yu,Dong Shu,Chong Zhang,Lizhou Fan,Wenyue Hua,Suiyuan Zhu,Yanda Meng,Zhenting Wang,Mengnan Du,Yongfeng Zhang
発行日 2024-09-30 17:22:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク