要約
人工知能システムの信頼と説明責任を確保するには、その結果の説明可能性が必要です。
Explainable AI は大幅に進歩しているにもかかわらず、依然として人間の偏見によってそのトレーニング データのかなりの部分が汚染されており、不公平や差別的傾向に関する懸念が生じています。
アルゴリズムの公平性の分野における現在のアプローチは、モデルの結果におけるこのような偏りを緩和することに焦点を当てていますが、モデルに偏りが生じている \emph{なぜ} を説明しようとする試みはほとんど行われていません。
2 つの分野間のこのギャップを埋めるために、最適トランスポート理論を使用して機械学習アプリケーションにおける差別の原因を明らかにする、特に画像分類に重点を置く包括的なアプローチを提案します。
ワッサースタイン重心を活用して公平な予測を実現し、バイアスに関連する領域を正確に特定するための拡張機能を導入します。
これにより、強制された公平性を使用して各特徴がバイアスに影響を与えることを測定する、一貫したシステムを導き出すことができます。
公平性の強制と説明の相互作用を利用することで、私たちの手法は、信頼性があり偏りのない AI システムの開発に重要な意味を持ち、さまざまな領域にわたる重要な意思決定シナリオにおける透明性、説明責任、公平性を促進します。
要約(オリジナル)
Ensuring trust and accountability in Artificial Intelligence systems demands explainability of its outcomes. Despite significant progress in Explainable AI, human biases still taint a substantial portion of its training data, raising concerns about unfairness or discriminatory tendencies. Current approaches in the field of Algorithmic Fairness focus on mitigating such biases in the outcomes of a model, but few attempts have been made to try to explain \emph{why} a model is biased. To bridge this gap between the two fields, we propose a comprehensive approach that uses optimal transport theory to uncover the causes of discrimination in Machine Learning applications, with a particular emphasis on image classification. We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated regions. This allows us to derive a cohesive system which uses the enforced fairness to measure each features influence \emph{on} the bias. Taking advantage of this interplay of enforcing and explaining fairness, our method hold significant implications for the development of trustworthy and unbiased AI systems, fostering transparency, accountability, and fairness in critical decision-making scenarios across diverse domains.
arxiv情報
著者 | Philipp Ratz,François Hu,Arthur Charpentier |
発行日 | 2023-10-31 15:07:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google