要約
最近、予測タスクにおける不公平な結果を軽減する公平な表現を学習するための多くのアプローチが提案されています。
これらの方法の主な動機は、その表現が未知の目的を持つ第三者によって使用される可能性があることです。
ただし、現在の公正な表現は一般に解釈できないため、第三者は、事前に契約された予測タスク以外に、これらの公正な表現を調査のために使用したり、追加の洞察を得るために使用することはできません。
したがって、予測タスクを超えてデータの有用性を高めるには、表現は公平でありながら解釈可能である必要があると主張します。
我々は、表現学習プロセス中に解釈可能な「事前知識」を導入することによって、解釈可能な公正な表現を学習するための一般的なフレームワークを提案します。
私たちはこのアイデアを実装し、ColorMNIST と Dsprite データセットを使用して実験を実施します。
結果は、解釈可能であることに加えて、私たちの表現は、最先端の公正な表現と比較して、下流の分類タスクにおいてわずかに高い精度とより公正な結果を達成することを示しています。
要約(オリジナル)
Numerous approaches have been recently proposed for learning fair representations that mitigate unfair outcomes in prediction tasks. A key motivation for these methods is that the representations can be used by third parties with unknown objectives. However, because current fair representations are generally not interpretable, the third party cannot use these fair representations for exploration, or to obtain any additional insights, besides the pre-contracted prediction tasks. Thus, to increase data utility beyond prediction tasks, we argue that the representations need to be fair, yet interpretable. We propose a general framework for learning interpretable fair representations by introducing an interpretable ‘prior knowledge’ during the representation learning process. We implement this idea and conduct experiments with ColorMNIST and Dsprite datasets. The results indicate that in addition to being interpretable, our representations attain slightly higher accuracy and fairer outcomes in a downstream classification task compared to state-of-the-art fair representations.
arxiv情報
著者 | Tianhao Wang,Zana Buçinca,Zilin Ma |
発行日 | 2024-06-24 15:01:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google