Data quality dimensions for fair AI

要約

人工知能 (AI) システムは本質的に中立ではなく、どのような種類の技術ツールにもバイアスが多少なりとも存在します。
特に人間を扱う場合、誤ったラベルが付けられたデータに起因する AI アルゴリズムの技術的エラーの影響は否定できません。
これらのシステムは誤った差別的な分類を提供するため、偏見から体系的に保護されていません。
この記事では、AI システムにおけるバイアスの問題をデータ品質の観点から考察します。
我々は、精度戦略に基づくバイアス緩和ツールの限定的なモデル構築に焦点を当て、典型的には困難な 2 つの状況で発生する性別分類エラーにおける特定のツールの改善の可能性を示します。それは、ラベルセットが不完全になる非バイナリー個人の分類です。
データセットへ。
データセットがラベルセットに関して矛盾するトランスジェンダー個人の分類。
変化する世界の存在下での分類システムの動作について推論するための形式的手法を使用して、完全性、一貫性、適時性、信頼性の観点から分類タスクの公平性を再検討することを提案し、いくつかの理論的結果を提供します。

要約(オリジナル)

Artificial Intelligence (AI) systems are not intrinsically neutral and biases trickle in any type of technological tool. In particular when dealing with people, the impact of AI algorithms’ technical errors originating with mislabeled data is undeniable. As they feed wrong and discriminatory classifications, these systems are not systematically guarded against bias. In this article we consider the problem of bias in AI systems from the point of view of data quality dimensions. We highlight the limited model construction of bias mitigation tools based on accuracy strategy, illustrating potential improvements of a specific tool in gender classification errors occurring in two typically difficult contexts: the classification of non-binary individuals, for which the label set becomes incomplete with respect to the dataset; and the classification of transgender individuals, for which the dataset becomes inconsistent with respect to the label set. Using formal methods for reasoning about the behavior of the classification system in presence of a changing world, we propose to reconsider the fairness of the classification task in terms of completeness, consistency, timeliness and reliability, and offer some theoretical results.

arxiv情報

著者 Camilla Quaresmini,Giuseppe Primiero
発行日 2024-12-04 16:54:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LO, F.3.0 パーマリンク