要約
オンライン強化学習 (RL) アルゴリズムは、臨床試験の参加者向けに治療を個別化する大きな可能性をもたらします。
ただし、一か八かの医療現場にオンラインの自律アルゴリズムを導入すると、品質管理とデータ品質の達成が特に困難になります。
この論文では、臨床試験でオンライン RL アルゴリズムを導入するための重要な要件としてアルゴリズムの忠実性を提案します。
それは、(1) 参加者を保護し、(2) 治験後の分析のためにデータの科学的有用性を維持するというアルゴリズムの責任を強調しています。
また、アルゴリズム開発者や臨床研究者がアルゴリズムの忠実性を確保できるように、導入前計画とリアルタイム監視のフレームワークも紹介します。
私たちのフレームワークの実際の応用を説明するために、Oralytics 臨床試験の実例を紹介します。
2023 年春以来、この試験では、歯科疾患のリスクがある参加者の行動介入を個別化する自律的なオンライン RL アルゴリズムの導入に成功しました。
要約(オリジナル)
Online reinforcement learning (RL) algorithms offer great potential for personalizing treatment for participants in clinical trials. However, deploying an online, autonomous algorithm in the high-stakes healthcare setting makes quality control and data quality especially difficult to achieve. This paper proposes algorithm fidelity as a critical requirement for deploying online RL algorithms in clinical trials. It emphasizes the responsibility of the algorithm to (1) safeguard participants and (2) preserve the scientific utility of the data for post-trial analyses. We also present a framework for pre-deployment planning and real-time monitoring to help algorithm developers and clinical researchers ensure algorithm fidelity. To illustrate our framework’s practical application, we present real-world examples from the Oralytics clinical trial. Since Spring 2023, this trial successfully deployed an autonomous, online RL algorithm to personalize behavioral interventions for participants at risk for dental disease.
arxiv情報
著者 | Anna L. Trella,Kelly W. Zhang,Inbal Nahum-Shani,Vivek Shetty,Iris Yan,Finale Doshi-Velez,Susan A. Murphy |
発行日 | 2024-08-12 16:56:11+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google