要約
深層学習モデルは、巨大なデータセット上のパターンの相関関係を学習する傾向があります。
これらのシステムが大規模になるほど、検出できる現象はより複雑になり、そのために必要なデータも多くなります。
人工知能 (AI) の使用は私たちの社会でますます普及しており、その影響は日々増大しています。
それが掲げる約束は、すべての人が情報や教育にアクセスできるようにするなど、その公正かつ普遍的な利用に強く依存しています。
不平等の世界では、最も恵まれない地域に手を差し伸べるのに役立ちます。
しかし、そのような普遍的なシステムは、一部の人に利益をもたらし、他の人を犠牲にすることなく、社会を代表できなければなりません。
私たちは世界中で観察されている不平等を再現するのではなく、不平等を乗り越えるようにこれらのIAを教育しなければなりません。
これらのシステムが、タスクの解決に不適切な方法で性別、人種、さらには階級情報を使用するケースを私たちは見てきました。
彼らは、実際の因果関係の推論の代わりに、私たちが通常バイアスと呼ぶものである偽の相関関係に依存しています。
この論文では、まず一般的な用語でバイアスとは何かを定義しようとします。
これは、バイアスの概念をわかりやすくし、なぜバイアスがどこにでも見つかるのか、なぜバイアスが役立つ場合があるのかを理解するのに役立ちます。
次に、これらのバイアスの中で最も一般的なものを含む一般的な動物学を提示する前に、一般的にネガティブなバイアスとして見られているものの概念、つまり機械学習で避けたいものに焦点を当てます。
最後に、特別に作成されたテンプレートのデータセットと特定のアルゴリズムを使用して、それらを検出するための古典的な方法と、それらを軽減するための古典的な方法を見て終わります。
要約(オリジナル)
Deep Learning models tend to learn correlations of patterns on huge datasets. The bigger these systems are, the more complex are the phenomena they can detect, and the more data they need for this. The use of Artificial Intelligence (AI) is becoming increasingly ubiquitous in our society, and its impact is growing everyday. The promises it holds strongly depend on their fair and universal use, such as access to information or education for all. In a world of inequalities, they can help to reach the most disadvantaged areas. However, such a universal systems must be able to represent society, without benefiting some at the expense of others. We must not reproduce the inequalities observed throughout the world, but educate these IAs to go beyond them. We have seen cases where these systems use gender, race, or even class information in ways that are not appropriate for resolving their tasks. Instead of real causal reasoning, they rely on spurious correlations, which is what we usually call a bias. In this paper, we first attempt to define what is a bias in general terms. It helps us to demystify the concept of bias, to understand why we can find them everywhere and why they are sometimes useful. Second, we focus over the notion of what is generally seen as negative bias, the one we want to avoid in machine learning, before presenting a general zoology containing the most common of these biases. We finally conclude by looking at classical methods to detect them, by means of specially crafted datasets of templates and specific algorithms, and also classical methods to mitigate them.
arxiv情報
著者 | Valentin Barriere |
発行日 | 2024-11-22 16:38:03+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google