Investigating the Relationship Between Debiasing and Artifact Removal using Saliency Maps

要約

機械学習システムの広範な採用は、公平性とバイアスに関する重要な懸念を提起し、AI開発に不可欠な有害なバイアスを軽減しています。
このホワイトペーパーでは、コンピュータービジョンタスクのニューラルネットワーク内のアーティファクトを削除と除去することとの関係を調査します。
まず、モデルの意思決定プロセスのシフトを評価するために顕著性マップを分析する新しいXaiベースのメトリックのセットを紹介します。
次に、成功したデビアティングメソッドが、保護された属性からモデルの焦点を体系的にリダイレクトすることを実証します。
最後に、もともとアーティファクトの除去のために開発された技術は、公平性を改善するために効果的に再利用できることを示しています。
これらの調査結果は、公平性を確保することと、保護された属性に対応するアーティファクトを削除することとの双方向のつながりの存在の証拠を提供します。

要約(オリジナル)

The widespread adoption of machine learning systems has raised critical concerns about fairness and bias, making mitigating harmful biases essential for AI development. In this paper, we investigate the relationship between debiasing and removing artifacts in neural networks for computer vision tasks. First, we introduce a set of novel XAI-based metrics that analyze saliency maps to assess shifts in a model’s decision-making process. Then, we demonstrate that successful debiasing methods systematically redirect model focus away from protected attributes. Finally, we show that techniques originally developed for artifact removal can be effectively repurposed for improving fairness. These findings provide evidence for the existence of a bidirectional connection between ensuring fairness and removing artifacts corresponding to protected attributes.

arxiv情報

著者 Lukasz Sztukiewicz,Ignacy Stępka,Michał Wiliński,Jerzy Stefanowski
発行日 2025-04-24 10:55:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.LG パーマリンク