Active Sensing of Knee Osteoarthritis Progression with Reinforcement Learning

要約

変形性関節症 (OA) は最も一般的な筋骨格疾患ですが、治療法はありません。
膝OA(KOA)は世界中で障害の最も大きな原因の1つであり、世界社会に数十億米ドルの損失をもたらしています。
KOA の進行の予測は、より効率的な臨床試験を通じて治療法開発を促進し、より効率的な医療利用を通じて患者の転帰を改善できるため、長年にわたってコミュニティの高い関心を集めてきました。
しかし、KOAを予測するための既存のアプローチは主に静的なもの、つまり単一時点のデータを考慮して何年も先の進行を予測するもの、および膝レベル、つまり単一の関節のみでの進行を考慮するものです。
これらおよび関連する理由により、これらの方法は、コスト削減と患者の転帰の改善をもたらすのに十分なレベルの予測性能を提供できません。
すべての患者から定期的に広範なデータを収集すれば、この問題に対処できる可能性がありますが、集団レベルでのコストが高いため限界があります。
この研究では、OA における静的予測モデルを超えて、総コストを最小限に抑えながら有益なデータ取得の数を最大化する目的で患者を動的にフォローアップするように設計された新しいアクティブ センシング (AS) アプローチを導入することを提案します。
ある期間。
私たちのアプローチは強化学習 (RL) に基づいており、人体の複数の部分における疾患進行の AS のために特別に設計された新しい報酬関数を活用しています。
私たちの方法はエンドツーエンドであり、マルチモーダルディープラーニングに依存しており、推論時に人間による入力を必要としません。
徹底的な実験評価を通じて、RL を使用すると、最先端のベースラインと比較して、より高い金銭的メリットが得られることがわかりました。

要約(オリジナル)

Osteoarthritis (OA) is the most common musculoskeletal disease, which has no cure. Knee OA (KOA) is one of the highest causes of disability worldwide, and it costs billions of United States dollars to the global community. Prediction of KOA progression has been of high interest to the community for years, as it can advance treatment development through more efficient clinical trials and improve patient outcomes through more efficient healthcare utilization. Existing approaches for predicting KOA, however, are predominantly static, i.e. consider data from a single time point to predict progression many years into the future, and knee level, i.e. consider progression in a single joint only. Due to these and related reasons, these methods fail to deliver the level of predictive performance, which is sufficient to result in cost savings and better patient outcomes. Collecting extensive data from all patients on a regular basis could address the issue, but it is limited by the high cost at a population level. In this work, we propose to go beyond static prediction models in OA, and bring a novel Active Sensing (AS) approach, designed to dynamically follow up patients with the objective of maximizing the number of informative data acquisitions, while minimizing their total cost over a period of time. Our approach is based on Reinforcement Learning (RL), and it leverages a novel reward function designed specifically for AS of disease progression in more than one part of a human body. Our method is end-to-end, relies on multi-modal Deep Learning, and requires no human input at inference time. Throughout an exhaustive experimental evaluation, we show that using RL can provide a higher monetary benefit when compared to state-of-the-art baselines.

arxiv情報

著者 Khanh Nguyen,Huy Hoang Nguyen,Egor Panfilov,Aleksei Tiulpin
発行日 2024-08-05 09:54:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク