要約
深層学習モデル、特に畳み込みニューラル ネットワーク (CNN) は、皮膚疾患の診断において優れたパフォーマンスを実証しており、多くの場合皮膚科医を上回っています。
しかし、特に肌の色や性別の多様性など、特定の人口統計的特徴に関連する偏見も明らかにしており、公平性に関する懸念が生じ、広範な展開が制限されています。
研究者は AI ベースのソリューションの公平性を確保するために積極的に取り組んでいますが、既存の方法では公平性を追求すると精度が低下します。
この問題を解決するために、我々は、公正な知識を生徒ネットワークに伝達するための「2 つの偏った教師」(つまり、異なる敏感な属性に偏った)ベースのアプローチを提案します。
私たちのアプローチは、予測精度を損なうことなく、学生ネットワークに存在するバイアスを軽減します。
実際、ほとんどの場合、私たちのアプローチによりベースライン モデルの精度が向上します。
この目標を達成するために、バイアス損失項とバイアス除去損失項を含む重み付き損失関数を開発しました。
公平性を達成するために利用可能な最先端のアプローチを超え、同時に精度も向上しました。
提案されたアプローチは、標準的な精度と公平性の評価尺度を使用して 2 つの皮膚科データセットで評価および検証されています。
再現性と将来の研究を促進するために、ソースコードを公開します。
要約(オリジナル)
Deep learning models, particularly Convolutional Neural Networks (CNNs), have demonstrated exceptional performance in diagnosing skin diseases, often outperforming dermatologists. However, they have also unveiled biases linked to specific demographic traits, notably concerning diverse skin tones or gender, prompting concerns regarding fairness and limiting their widespread deployment. Researchers are actively working to ensure fairness in AI-based solutions, but existing methods incur an accuracy loss when striving for fairness. To solve this issue, we propose a `two-biased teachers’ (i.e., biased on different sensitive attributes) based approach to transfer fair knowledge into the student network. Our approach mitigates biases present in the student network without harming its predictive accuracy. In fact, in most cases, our approach improves the accuracy of the baseline model. To achieve this goal, we developed a weighted loss function comprising biasing and debiasing loss terms. We surpassed available state-of-the-art approaches to attain fairness and also improved the accuracy at the same time. The proposed approach has been evaluated and validated on two dermatology datasets using standard accuracy and fairness evaluation measures. We will make source code publicly available to foster reproducibility and future research.
arxiv情報
著者 | Anshul Pundhir,Balasubramanian Raman,Pravendra Singh |
発行日 | 2024-05-16 17:02:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google