A tutorial on fairness in machine learning in healthcare

要約

目的: 機械学習 (ML) アルゴリズムがすべての患者グループ内で安全かつ効果的であり、特定の患者に不利益を与えないことを保証することは、臨床上の意思決定と既存の医療格差の強化を防ぐために不可欠です。
このチュートリアルの目的は、臨床応用と実際の実装に焦点を当て、医療情報学コミュニティに ML 内の公平性に関する一般的な概念を紹介することです。
対象者: さまざまな医療アプリケーションで公平性のギャップが生じるため、このチュートリアルは、最新の臨床データを利用する研究者や臨床医に、事前知識を前提とせずに公平性について理解できるように設計されています。
範囲: ヘルスケアのモデルが不公平である理由の概要、公平性を定量化するために使用される指標の概要と比較、進行中の研究についての説明など、ML での公平性を定義するために使用される基本的な概念と方法について説明します。
公開されている電子医療記録データセットにおける死亡率予測のケーススタディを通じて導入された公平性手法のいくつかを説明します。
最後に、包括的なグループの公平性を評価するための使いやすい R パッケージを提供し、研究者や臨床医が自身の ML 作業の公平性を評価できるようにします。

要約(オリジナル)

OBJECTIVE: Ensuring that machine learning (ML) algorithms are safe and effective within all patient groups, and do not disadvantage particular patients, is essential to clinical decision making and preventing the reinforcement of existing healthcare inequities. The objective of this tutorial is to introduce the medical informatics community to the common notions of fairness within ML, focusing on clinical applications and implementation in practice. TARGET AUDIENCE: As gaps in fairness arise in a variety of healthcare applications, this tutorial is designed to provide an understanding of fairness, without assuming prior knowledge, to researchers and clinicians who make use of modern clinical data. SCOPE: We describe the fundamental concepts and methods used to define fairness in ML, including an overview of why models in healthcare may be unfair, a summary and comparison of the metrics used to quantify fairness, and a discussion of some ongoing research. We illustrate some of the fairness methods introduced through a case study of mortality prediction in a publicly available electronic health record dataset. Finally, we provide a user-friendly R package for comprehensive group fairness evaluation, enabling researchers and clinicians to assess fairness in their own ML work.

arxiv情報

著者 Jianhui Gao,Benson Chou,Zachary R. McCaw,Hilary Thurston,Paul Varghese,Chuan Hong,Jessica Gronsbell
発行日 2024-06-13 16:41:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CY, cs.LG, stat.ML パーマリンク