要約
このレビューでは、医療技術評価 (HTA) のための、生成型人工知能 (AI) と大規模言語モデル (LLM) を含む基礎モデルの変革の可能性を紹介します。
私たちは、証拠の合成、証拠の生成、臨床試験、経済モデリングという 4 つの重要な分野での応用を検討します。 (1) 証拠の合成: 生成 AI は、検索用語の提案、要約のスクリーニング、
顕著な精度でデータを抽出します。
(2) エビデンスの生成: これらのモデルは、プロセスの自動化を促進し、非構造化臨床ノートや画像など、ますます利用可能になりつつある実世界データ (RWD) の大規模なコレクションを分析し、実世界のエビデンス (RWE) の速度と品質を向上させる可能性があります。
世代;
(3) 臨床試験: 生成 AI を使用すると、試験設計を最適化し、患者のマッチングを改善し、試験データをより効率的に管理できます。
(4) 経済モデリング: 生成 AI は、概念化から検証までの医療経済モデルの開発にも役立ち、HTA プロセス全体を合理化します。
これらのテクノロジは、その期待にもかかわらず、急速に進歩しているものの、まだ初期段階にあり、HTA への適用においては引き続き慎重な評価が必要です。
これらのツールを責任を持って使用および実装するために、これらのツールを組み込んだ研究の開発者とユーザーの両方が、科学的妥当性に関する問題や偏見のリスクなどの現在の制限をよく理解し、公平性と倫理的な影響を考慮する必要があります。
また、現在の政策状況を調査し、HTA 機関に対し、責任を持って生成 AI をワークフローに統合するための提案を提供し、人間による監視の重要性とこれらのツールの急速に進化する性質を強調しました。
要約(オリジナル)
This review introduces the transformative potential of generative Artificial Intelligence (AI) and foundation models, including large language models (LLMs), for health technology assessment (HTA). We explore their applications in four critical areas, evidence synthesis, evidence generation, clinical trials and economic modeling: (1) Evidence synthesis: Generative AI has the potential to assist in automating literature reviews and meta-analyses by proposing search terms, screening abstracts, and extracting data with notable accuracy; (2) Evidence generation: These models can potentially facilitate automating the process and analyze the increasingly available large collections of real-world data (RWD), including unstructured clinical notes and imaging, enhancing the speed and quality of real-world evidence (RWE) generation; (3) Clinical trials: Generative AI can be used to optimize trial design, improve patient matching, and manage trial data more efficiently; and (4) Economic modeling: Generative AI can also aid in the development of health economic models, from conceptualization to validation, thus streamlining the overall HTA process. Despite their promise, these technologies, while rapidly improving, are still nascent and continued careful evaluation in their applications to HTA is required. To ensure their responsible use and implementation, both developers and users of research incorporating these tools, should familiarize themselves with their current limitations, including the issues related to scientific validity, risk of bias, and consider equity and ethical implications. We also surveyed the current policy landscape and provide suggestions for HTA agencies on responsibly integrating generative AI into their workflows, emphasizing the importance of human oversight and the fast-evolving nature of these tools.
arxiv情報
著者 | Rachael Fleurence,Jiang Bian,Xiaoyan Wang,Hua Xu,Dalia Dawoud,Mitch Higashi,Jagpreet Chhatwal |
発行日 | 2024-08-01 14:10:22+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google