Investigating Gender Fairness in Machine Learning-driven Personalized Care for Chronic Pain

要約

慢性的な痛みは、世界中の何百万もの人々の生活の質を著しく低下させます。
心理教育と療法は痛みの結果を改善することができますが、痛みを経験している多くの人は科学的根拠に基づいた治療を受けられなかったり、効果を得るために必要な回数のセッションを完了できなかったりします。
強化学習(RL)は、希少な臨床リソースを効率的に使用しながら、患者の個々のニーズに応じて個別の疼痛管理介入を調整する可能性を示しています。
しかし、臨床医、患者、医療意思決定者は、RL ソリューションが人種や性別などの患者の特性に関連する格差を悪化させる可能性があることを懸念しています。
この記事では、強化学習の実世界の応用を使用して、パーソナライズされた疼痛ケアの推奨におけるジェンダーの公平性を研究します (Piette et al., 2022a)。
ここで、ジェンダーの公平性を遵守することは、性別によって定義される部分母集団が受け取る効用の格差が最小限であるか、まったくないことを意味します。
私たちは、意思決定を支援するために使用される関連する患者情報(特徴と呼ばれる)の選択が、ジェンダーの公平性に影響を与えるかどうかを調査します。
実世界のデータを使用して実施された私たちの実験 (Piette、2022) は、含まれている機能がジェンダーの公平性に影響を与える可能性があることを示しています。
さらに、私たちは RL ソリューションである NestedRecommendation を提案します。これは、i) 実用性と公平性を最適化する機能の選択を適応的に学習する機能、および ii) 機能の選択を加速し、その結果、早期から痛みケアの推奨事項を改善する機能を実証します。
臨床医の専門知識を活用することによって。

要約(オリジナル)

Chronic pain significantly diminishes the quality of life for millions worldwide. While psychoeducation and therapy can improve pain outcomes, many individuals experiencing pain lack access to evidence-based treatments or fail to complete the necessary number of sessions to achieve benefit. Reinforcement learning (RL) shows potential in tailoring personalized pain management interventions according to patients’ individual needs while ensuring the efficient use of scarce clinical resources. However, clinicians, patients, and healthcare decision-makers are concerned that RL solutions could exacerbate disparities associated with patient characteristics like race or gender. In this article, we study gender fairness in personalized pain care recommendations using a real-world application of reinforcement learning (Piette et al., 2022a). Here, adhering to gender fairness translates to minimal or no disparity in the utility received by subpopulations as defined by gender. We investigate whether the selection of relevant patient information (referred to as features) used to assist decision-making affects gender fairness. Our experiments, conducted using real-world data Piette, 2022), indicate that included features can impact gender fairness. Moreover, we propose an RL solution, NestedRecommendation, that demonstrates the ability: i) to adaptively learn to select the features that optimize for utility and fairness, and ii) to accelerate feature selection and in turn, improve pain care recommendations from early on, by leveraging clinicians’ domain expertise.

arxiv情報

著者 Pratik Gajane,Sean Newman,Mykola Pechenizkiy,John D. Piette
発行日 2024-06-14 17:32:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CY, cs.LG パーマリンク