要約
医療大規模な言語モデル(LLMS)は、さまざまな医療NLPタスクで印象的なパフォーマンスを実証しています。
ただし、がんドメインでの表現型の特定と診断のために特別に設計されたLLMはまだありません。
さらに、これらのLLMには通常、数十億のパラメーターがあるため、医療システムに計算的に高価になります。
したがって、この研究では、70億パラメーターとミストラルスタイルのアーキテクチャを備えたモデルであるCancerllMを提案し、2.7m近くの臨床ノートで事前に訓練され、17のがんタイプをカバーする515Kを超える病理報告が続き、その後、がん表現型抽出とがん診断の生成を含む2つのがん関連タスクで微調整されます。
私たちの評価は、CancerLLMが表現型抽出で91.78%、Disganois生成で86.81%のF1スコアで最先端の結果を達成することを実証しました。
既存のLLMを上回り、平均F1スコア改善は9.23%でした。
さらに、CancerLLMは、時間とGPUの使用効率を示し、他のLLMと比較して堅牢性を示しました。
Cancerllmは、がんの領域での臨床研究と実践を進めるための効果的で堅牢なソリューションを潜在的に提供できることを実証しました。
要約(オリジナル)
Medical Large Language Models (LLMs) have demonstrated impressive performance on a wide variety of medical NLP tasks; however, there still lacks a LLM specifically designed for phenotyping identification and diagnosis in cancer domain. Moreover, these LLMs typically have several billions of parameters, making them computationally expensive for healthcare systems. Thus, in this study, we propose CancerLLM, a model with 7 billion parameters and a Mistral-style architecture, pre-trained on nearly 2.7M clinical notes and over 515K pathology reports covering 17 cancer types, followed by fine-tuning on two cancer-relevant tasks, including cancer phenotypes extraction and cancer diagnosis generation. Our evaluation demonstrated that the CancerLLM achieves state-of-the-art results with F1 score of 91.78% on phenotyping extraction and 86.81% on disganois generation. It outperformed existing LLMs, with an average F1 score improvement of 9.23%. Additionally, the CancerLLM demonstrated its efficiency on time and GPU usage, and robustness comparing with other LLMs. We demonstrated that CancerLLM can potentially provide an effective and robust solution to advance clinical research and practice in cancer domain
arxiv情報
著者 | Mingchen Li,Jiatan Huang,Jeremy Yeung,Anne Blaes,Steven Johnson,Hongfang Liu,Hua Xu,Rui Zhang |
発行日 | 2025-04-01 02:23:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google