Closing the Gap in the Trade-off between Fair Representations and Accuracy

要約

さまざまな機械学習モデルとそのいくつかのアプリケーションへの展開が急速に開発されているため、これらのモデルの精度を超えたところに目を向けることの重要性についての議論が行われています。
このようなモデルの公平性は、より注目されて当然の側面の 1 つです。
この研究では、文書と文の自然言語表現 (つまり、エンコーディング) を分析し、それらに依存する下流タスクの公平性に影響を与える可能性のある埋め込みレベルのバイアスを分析します。
我々は、主成分のさまざまなサブセットに沿った再構成誤差の違いに基づいて、異なるサブグループに向かう、または異なるサブグループに向かう、または反対する、これらのエンコーディングの偏りを特定します。
私たちは、エンコーディングにおけるこのようなバイアスを軽減しながら、それらを使用する分類モデルの精度を適切に維持する方法を検討し、推奨しています。

要約(オリジナル)

The rapid developments of various machine learning models and their deployments in several applications has led to discussions around the importance of looking beyond the accuracies of these models. Fairness of such models is one such aspect that is deservedly gaining more attention. In this work, we analyse the natural language representations of documents and sentences (i.e., encodings) for any embedding-level bias that could potentially also affect the fairness of the downstream tasks that rely on them. We identify bias in these encodings either towards or against different sub-groups based on the difference in their reconstruction errors along various subsets of principal components. We explore and recommend ways to mitigate such bias in the encodings while also maintaining a decent accuracy in classification models that use them.

arxiv情報

著者 Biswajit Rout,Ananya B. Sai,Arun Rajkumar
発行日 2024-04-15 10:54:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CY, cs.LG パーマリンク