要約
ニューラル ネットワークは、いくつかのコンピューター ビジョンおよび自然言語処理タスクで最先端の結果をもたらしているにもかかわらず、現在のいくつかの欠点のために厳しい批判に直面しています。
そのうちの 1 つは、ニューラル ネットワークは、実際の有用な因果関係に焦点を当てるのではなく、データ内のバイアスをモデル化する傾向がある相関マシンです。
この問題は、人種、性別、年齢などの側面に影響を受けるアプリケーション ドメインで特に深刻です。
モデルが不公平な意思決定を行うのを防ぐために、AI コミュニティはアルゴリズムのバイアスを修正することに力を注いでおり、現在では AI の公平性として広く知られている研究分野を生み出しています。
この調査論文では、視覚と言語の研究の文脈における公平性を意識したニューラル ネットワークの主なバイアス緩和方法の詳細な概要を提供します。
公平性のためのバイアス緩和方法に関する文献をより適切に整理するための新しい分類法を提案し、関心のある研究者と実践者のために現在の課題、傾向、および重要な将来の作業方向について説明します。
要約(オリジナル)
Despite being responsible for state-of-the-art results in several computer vision and natural language processing tasks, neural networks have faced harsh criticism due to some of their current shortcomings. One of them is that neural networks are correlation machines prone to model biases within the data instead of focusing on actual useful causal relationships. This problem is particularly serious in application domains affected by aspects such as race, gender, and age. To prevent models from incurring on unfair decision-making, the AI community has concentrated efforts in correcting algorithmic biases, giving rise to the research area now widely known as fairness in AI. In this survey paper, we provide an in-depth overview of the main debiasing methods for fairness-aware neural networks in the context of vision and language research. We propose a novel taxonomy to better organize the literature on debiasing methods for fairness, and we discuss the current challenges, trends, and important future work directions for the interested researcher and practitioner.
arxiv情報
| 著者 | Otávio Parraga,Martin D. More,Christian M. Oliveira,Nathan S. Gavenski,Lucas S. Kupssinskü,Adilson Medronha,Luis V. Moura,Gabriel S. Simões,Rodrigo C. Barros |
| 発行日 | 2022-11-10 14:42:46+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google