要約
公正で倫理的な AI システムの開発には、見落とされたり無視されたりしがちなバイアスの軽減について慎重に検討する必要があります。
この研究では、古典的なデータ拡張技術を活用して、データとモデルのバイアスという差し迫った問題に取り組む、ターゲット データ拡張 (TDA) と呼ばれる、バイアスに対処するための新しく効率的なアプローチを紹介します。
バイアスを除去するという面倒な作業とは異なり、私たちの方法では代わりにバイアスを挿入することを提案しており、結果としてパフォーマンスが向上します。
バイアスを特定するために、臨床皮膚病変のデータセットと男性と女性の顔のデータセットという 2 つの多様なデータセットに注釈を付けました。
これらのバイアスの注釈はこの研究で初めて公開され、将来の研究に貴重なリソースを提供します。
反事実バイアスの挿入を通じて、フレーム、定規、メガネに関連するバイアスがモデルに大きな影響を与えていることがわかりました。
トレーニング中にランダムにバイアスを導入することで、これらのバイアスを軽減し、エラー率の無視できる増加を維持しながら、バイアス測定値を 2 倍から 50 倍以上まで大幅に減少させることができました。
要約(オリジナル)
The development of fair and ethical AI systems requires careful consideration of bias mitigation, an area often overlooked or ignored. In this study, we introduce a novel and efficient approach for addressing biases called Targeted Data Augmentation (TDA), which leverages classical data augmentation techniques to tackle the pressing issue of bias in data and models. Unlike the laborious task of removing biases, our method proposes to insert biases instead, resulting in improved performance. To identify biases, we annotated two diverse datasets: a dataset of clinical skin lesions and a dataset of male and female faces. These bias annotations are published for the first time in this study, providing a valuable resource for future research. Through Counterfactual Bias Insertion, we discovered that biases associated with the frame, ruler, and glasses had a significant impact on models. By randomly introducing biases during training, we mitigated these biases and achieved a substantial decrease in bias measures, ranging from two-fold to more than 50-fold, while maintaining a negligible increase in the error rate.
arxiv情報
著者 | Agnieszka Mikołajczyk-Bareła,Maria Ferlin,Michał Grochowski |
発行日 | 2023-08-22 12:25:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google