Data quality dimensions for fair AI

要約

AIシステムは本質的に中立ではなく、どんな種類の技術的ツールにもバイアスが入り込む。特に人を扱う場合、AIアルゴリズムは誤ったラベル付けをしたデータに由来する技術的エラーを反映する。誤った差別的な分類を与え、構造的な人種差別や疎外を永続させるため、これらのシステムはバイアスから体系的に保護されていない。この記事では、AIシステムにおけるバイアスの問題を、情報品質の観点から考察します。性別の分類エラーにおけるバイアス緩和ツールの潜在的な改善策を、2つの典型的な困難な文脈、すなわち非二元論者の分類とトランスジェンダー個人の分類に言及して説明します。偏見緩和ツールに実装するデータ品質次元の特定は、より公平性を達成するのに役立つかもしれない。そこで、この問題を完全性、一貫性、適時性、信頼性の観点から検討し、いくつかの理論的結果を提供することを提案する。

要約(オリジナル)

AI systems are not intrinsically neutral and biases trickle in any type of technological tool. In particular when dealing with people, AI algorithms reflect technical errors originating with mislabeled data. As they feed wrong and discriminatory classifications, perpetuating structural racism and marginalization, these systems are not systematically guarded against bias. In this article we consider the problem of bias in AI systems from the point of view of Information Quality dimensions. We illustrate potential improvements of a bias mitigation tool in gender classification errors, referring to two typically difficult contexts: the classification of non-binary individuals and the classification of transgender individuals. The identification of data quality dimensions to implement in bias mitigation tool may help achieve more fairness. Hence, we propose to consider this issue in terms of completeness, consistency, timeliness and reliability, and offer some theoretical results.

arxiv情報

著者 Camilla Quaresmini,Giuseppe Primiero
発行日 2023-05-11 16:48:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LO, F.3.0 パーマリンク