要約
AI における公平性は、一か八かの意思決定においてますます懸念されています。
利害関係者、特に一般ユーザーを公正な AI 開発に参加させることは有望であるにもかかわらず、見落とされています。
最近の取り組みでは、一般ユーザーが AI の公平性に関連するフィードバックを提供できるようにすることが検討されていますが、ユーザーのフィードバックを AI モデルに統合する方法と、その影響についてはまだ理解が不足しています。
このギャップを埋めるために、Home Credit データセットでトレーニングされた XGBoost モデルの公平性に関する 58 人の一般ユーザーからのフィードバックを収集し、精度と個人およびグループの公平性に対するモデルの再トレーニングの影響を調査するオフライン実験を実施しました。
私たちの取り組みは、ユーザーの公平性に関するフィードバックを XGBoost に統合するベースライン結果と、AI の公平性において利害関係者を関与させるための研究をブートストラップするためのデータセットとコード フレームワークに貢献します。
私たちの議論は、AI の公平性においてユーザー フィードバックを採用する際の課題を浮き彫りにし、対話型機械学習の将来の応用分野への道を示します。
要約(オリジナル)
Fairness in AI is a growing concern for high-stakes decision making. Engaging stakeholders, especially lay users, in fair AI development is promising yet overlooked. Recent efforts explore enabling lay users to provide AI fairness-related feedback, but there is still a lack of understanding of how to integrate users’ feedback into an AI model and the impacts of doing so. To bridge this gap, we collected feedback from 58 lay users on the fairness of a XGBoost model trained on the Home Credit dataset, and conducted offline experiments to investigate the effects of retraining models on accuracy, and individual and group fairness. Our work contributes baseline results of integrating user fairness feedback in XGBoost, and a dataset and code framework to bootstrap research in engaging stakeholders in AI fairness. Our discussion highlights the challenges of employing user feedback in AI fairness and points the way to a future application area of interactive machine learning.
arxiv情報
著者 | Evdoxia Taka,Yuri Nakao,Ryosuke Sonoda,Takuya Yokota,Lin Luo,Simone Stumpf |
発行日 | 2023-12-13 11:17:29+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google