要約
ヘルスケアや顔認識における機械学習など、リスクの高いアプリケーションの機械学習では、公平性がますます重要になってきています。
ただし、以前のロジット空間制約方法には欠陥があることがわかります。
そこで、出力ロジットに最大平均不一致の制約を課すことで公平性条件を達成する新しいフレームワーク Logits-MMD を提案する。
さらに、定量的分析と実験結果は、私たちのフレームワークが以前の方法を上回る優れた特性を持ち、2つの顔認識データセットと1つの動物データセットで最先端を達成することを示しています。
最後に、実験結果を示し、バイアス除去アプローチが公平性条件を効果的に達成することを実証します。
要約(オリジナル)
Fairness has become increasingly pivotal in machine learning for high-risk applications such as machine learning in healthcare and facial recognition. However, we see the deficiency in the previous logits space constraint methods. Therefore, we propose a novel framework, Logits-MMD, that achieves the fairness condition by imposing constraints on output logits with Maximum Mean Discrepancy. Moreover, quantitative analysis and experimental results show that our framework has a better property that outperforms previous methods and achieves state-of-the-art on two facial recognition datasets and one animal dataset. Finally, we show experimental results and demonstrate that our debias approach achieves the fairness condition effectively.
arxiv情報
著者 | Hao-Wei Chung,Ching-Hao Chiu,Yu-Jen Chen,Yiyu Shi,Tsung-Yi Ho |
発行日 | 2024-02-20 14:56:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google