要約
タイトル:機械学習における公平性と偏差修正:4つの異なる研究人口からの結果
要約:
– 精神保健医療の中で、偏見や不平等な状況が存在し、収集されたデータに広がっています。
– データから学習した機械学習(ML)モデルが、社会に既に存在する構造的なバイアスを強化することがあるため、これを適切に考慮しなければなりません。
– ここでは、異なる国や人口をカバーする4つのケーススタディを使用して、うつ病の予測に特化したMLモデルにおけるバイアスについての系統的な研究を紹介します。
– 標準的なMLアプローチは、不公平な振る舞いをしばしば示しています。
– しかし、標準的な緩和技術、および独自の事後法を使用することで、公正性のレベルを低減することができることを示します。
– 現実世界で公平性と信頼性を高めるうつ病リスク予測のためのMLモデルを開発するための実用的な推奨事項を提供しています。
– うつ病予測のための最適なMLモデルは、公平な結果を提供するには適していません。これは、モデル選択中に公平性を分析し、偏差修正介入の影響について透明性のある報告をすることの重要性を強調しています。
要約(オリジナル)
A significant level of stigma and inequality exists in mental healthcare, especially in under-served populations, which spreads through collected data. When not properly accounted for, machine learning (ML) models learned from data can reinforce the structural biases already present in society. Here, we present a systematic study of bias in ML models designed to predict depression in four different case studies covering different countries and populations. We find that standard ML approaches show regularly biased behaviors. However, we show that standard mitigation techniques, and our own post-hoc method, can be effective in reducing the level of unfair bias. We provide practical recommendations to develop ML models for depression risk prediction with increased fairness and trust in the real world. No single best ML model for depression prediction provides equality of outcomes. This emphasizes the importance of analyzing fairness during model selection and transparent reporting about the impact of debiasing interventions.
arxiv情報
著者 | Vien Ngoc Dang,Anna Cascarano,Rosa H. Mulder,Charlotte Cecil,Maria A. Zuluaga,Jerónimo Hernández-González,Karim Lekadir |
発行日 | 2023-04-17 08:36:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI