Diabetica: Adapting Large Language Model to Enhance Multiple Medical Tasks in Diabetes Care and Management

要約

糖尿病は、重大な世界的な健康負担を伴う慢性疾患であり、最適な管理のためにマルチステークホルダーのコラボレーションを必要とします。
大規模な言語モデル(LLM)は、さまざまなヘルスケアシナリオで有望を示していますが、多様な糖尿病タスク全体の有効性は証明されていません。
私たちの研究では、糖尿病固有のLLMSを訓練および検証するための枠組みを導入しました。
最初に、データ収集、フィルタリング、増強、改良を含む包括的なデータ処理パイプラインを開発しました。
これにより、高品質の糖尿病固有のデータセットと評価ベンチマークがゼロから作成されました。
収集されたトレーニングデータセットで微調整された糖尿病特異的LLMファミリーは、他のLLMと比較してさまざまな糖尿病タスクの処理に最先端の習熟度を示しました。
さらに、臨床研究により、パーソナライズされたヘルスケアの提供、医学教育の支援、臨床タスクの合理化など、糖尿病ケアにおけるモデルの潜在的な応用が明らかになりました。
一般的に、導入されたフレームワークは、糖尿病固有のLLMSの開発に役立ち、臨床診療を強化し、さまざまなエンドユーザーにわたって糖尿病管理にパーソナライズされたデータ駆動型のサポートを提供する可能性を強調しています。
コード、ベンチマーク、モデルは、https://github.com/waltonfuture/diabeticaで入手できます。

要約(オリジナル)

Diabetes is a chronic disease with a significant global health burden, requiring multi-stakeholder collaboration for optimal management. Large language models (LLMs) have shown promise in various healthcare scenarios, but their effectiveness across diverse diabetes tasks remains unproven. Our study introduced a framework to train and validate diabetes-specific LLMs. We first developed a comprehensive data processing pipeline that includes data collection, filtering, augmentation and refinement. This created a high-quality, diabetes-specific dataset and evaluation benchmarks from scratch. Fine-tuned on the collected training dataset, our diabetes-specific LLM family demonstrated state-of-the-art proficiency in processing various diabetes tasks compared to other LLMs. Furthermore, clinical studies revealed the potential applications of our models in diabetes care, including providing personalized healthcare, assisting medical education, and streamlining clinical tasks. Generally, our introduced framework helps develop diabetes-specific LLMs and highlights their potential to enhance clinical practice and provide personalized, data-driven support for diabetes management across different end users. Our codes, benchmarks and models are available at https://github.com/waltonfuture/Diabetica.

arxiv情報

著者 Lai Wei,Zhen Ying,Muyang He,Yutong Chen,Qian Yang,Yanzhe Hong,Jiaping Lu,Kaipeng Zheng,Shaoting Zhang,Xiaoying Li,Weiran Huang,Ying Chen
発行日 2025-03-13 13:20:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CE, cs.CL, cs.LG パーマリンク