Deep Reinforcement Learning for Efficient and Fair Allocation of Health Care Resources

要約

医療資源の不足により、配給の避けられない結果が生じる可能性があります。
たとえば、人工呼吸器は、特に公衆衛生上の緊急事態や、新型コロナウイルス感染症のパンデミックの最中など、リソースに制約のある医療現場では、供給が制限されることがよくあります。
現在、医療資源配分プロトコルに関して広く受け入れられている標準はなく、その結果、さまざまな政府がさまざまな基準やヒューリスティックベースのプロトコルに基づいて患者に優先順位を付けています。
この研究では、公平かつ効果的にリソースを配分するための救命救急リソース割り当てポリシーの最適化のための強化学習の使用を調査します。
我々は、個々の患者の疾患の進行と救命救急資源の割り当て中の患者間の相互作用効果を統合するための、トランスベースのディープ Q ネットワークを提案します。
私たちは配分の公平性と全体的な患者転帰の両方を改善することを目指しています。
私たちの実験は、さまざまな政府が使用している既存の重症度ベースおよび併存疾患ベースの方法と比較して、私たちの方法が超過死亡を大幅に削減し、さまざまなレベルの人工呼吸器不足の下でより公平な分配を達成することを示しています。
私たちのソース コードは付録に含まれており、出版と同時に Github で公開されます。

要約(オリジナル)

Scarcity of health care resources could result in the unavoidable consequence of rationing. For example, ventilators are often limited in supply, especially during public health emergencies or in resource-constrained health care settings, such as amid the pandemic of COVID-19. Currently, there is no universally accepted standard for health care resource allocation protocols, resulting in different governments prioritizing patients based on various criteria and heuristic-based protocols. In this study, we investigate the use of reinforcement learning for critical care resource allocation policy optimization to fairly and effectively ration resources. We propose a transformer-based deep Q-network to integrate the disease progression of individual patients and the interaction effects among patients during the critical care resource allocation. We aim to improve both fairness of allocation and overall patient outcomes. Our experiments demonstrate that our method significantly reduces excess deaths and achieves a more equitable distribution under different levels of ventilator shortage, when compared to existing severity-based and comorbidity-based methods in use by different governments. Our source code is included in the supplement and will be released on Github upon publication.

arxiv情報

著者 Yikuan Li,Chengsheng Mao,Kaixuan Huang,Hanyin Wang,Zheng Yu,Mengdi Wang,Yuan Luo
発行日 2023-09-15 17:28:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク