要約
米国の医療支出は5兆ドルに近づき(NHEファクトシート2024)、その25%が無駄であると推定されている(米国の医療制度の無駄:推定コストと節約の可能性、未確認)ため、リスクとリスクをより適切に予測する必要性が高まっています。
最適な患者ケアはますます重要です。
このペーパーでは、患者ケアと医療管理の幅広い側面を導き、予測するために設計された生成事前トレーニング済みトランスフォーマー (GPT) である大規模医療モデル (LMM) を紹介します。
このモデルは、医療用語システムから構築された特殊な語彙を使用して、1 億 4,000 万件を超える長期にわたる患者請求記録からの一連の医療イベントに基づいてトレーニングされており、医療費を予測し、潜在的なリスク要因を特定する優れた機能を実証しています。
実験と検証を通じて、コストとリスクの予測だけでなく、複雑な病状内の複雑なパターンを識別し、患者ケアにおける新しい関係を特定する能力における LMM の熟練度を実証します。
LMM は、広範な状態を予測する研究において、コスト予測を最良の商用モデルと比較して 14.1% 改善し、慢性状態の予測を最良の変圧器モデルと比較して 1.9% 改善することができます。
LMM は医療分析における大幅な進歩であり、リスク評価、コスト管理、個別化医療を大幅に強化する可能性をもたらします。
要約(オリジナル)
With U.S. healthcare spending approaching $5T (NHE Fact Sheet 2024), and 25% of it estimated to be wasteful (Waste in the US the health care system: estimated costs and potential for savings, n.d.), the need to better predict risk and optimal patient care is evermore important. This paper introduces the Large Medical Model (LMM), a generative pre-trained transformer (GPT) designed to guide and predict the broad facets of patient care and healthcare administration. The model is trained on medical event sequences from over 140M longitudinal patient claims records with a specialized vocabulary built from medical terminology systems and demonstrates a superior capability to forecast healthcare costs and identify potential risk factors. Through experimentation and validation, we showcase the LMM’s proficiency in not only in cost and risk predictions, but also in discerning intricate patterns within complex medical conditions and an ability to identify novel relationships in patient care. The LMM is able to improve both cost prediction by 14.1% over the best commercial models and chronic conditions prediction by 1.9% over the best transformer models in research predicting a broad set of conditions. The LMM is a substantial advancement in healthcare analytics, offering the potential to significantly enhance risk assessment, cost management, and personalized medicine.
arxiv情報
著者 | Ricky Sahu,Eric Marriott,Ethan Siegel,David Wagner,Flore Uzan,Troy Yang,Asim Javed |
発行日 | 2024-12-05 17:19:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google