Achieving Fairness Through Channel Pruning for Dermatological Disease Diagnosis

要約

多くの研究により、深層学習ベースの医療画像分類モデルは、人種、性別、年齢などの特定の人口統計的属性に対して偏りを示す可能性があることが明らかになりました。
既存のバイアス緩和方法は、多くの場合、大幅な精度の低下を犠牲にして、高レベルの公平性を実現します。
この課題に対応して、チャネル プルーニングを通じて公平性を実現する、革新的で適応性のあるソフト最近傍損失ベースのチャネル プルーニング フレームワークを提案します。
従来、チャネル プルーニングはニューラル ネットワーク推論を高速化するために利用されてきました。
しかし、私たちの研究は、剪定が公平性を達成するための強力なツールにもなり得ることを示しています。
私たちの重要な洞察は、レイヤー内の異なるチャネルが異なるグループの精度に異なる寄与をするということです。
特権グループと非特権グループの間の精度の差につながる重要なチャネルを選択的にプルーニングすることで、精度を大幅に犠牲にすることなく公平性を効果的に向上させることができます。
複数の機密属性にわたる 2 つの皮膚病変診断データセットに対して行われた実験により、精度と公平性の間の最先端のトレードオフを達成する際の私たちの方法の有効性が検証されました。
私たちのコードは https://github.com/Kqp1227/Sensitive-Channel-Pruning で入手できます。

要約(オリジナル)

Numerous studies have revealed that deep learning-based medical image classification models may exhibit bias towards specific demographic attributes, such as race, gender, and age. Existing bias mitigation methods often achieve high level of fairness at the cost of significant accuracy degradation. In response to this challenge, we propose an innovative and adaptable Soft Nearest Neighbor Loss-based channel pruning framework, which achieves fairness through channel pruning. Traditionally, channel pruning is utilized to accelerate neural network inference. However, our work demonstrates that pruning can also be a potent tool for achieving fairness. Our key insight is that different channels in a layer contribute differently to the accuracy of different groups. By selectively pruning critical channels that lead to the accuracy difference between the privileged and unprivileged groups, we can effectively improve fairness without sacrificing accuracy significantly. Experiments conducted on two skin lesion diagnosis datasets across multiple sensitive attributes validate the effectiveness of our method in achieving state-of-the-art trade-off between accuracy and fairness. Our code is available at https://github.com/Kqp1227/Sensitive-Channel-Pruning.

arxiv情報

著者 Qingpeng Kong,Ching-Hao Chiu,Dewen Zeng,Yu-Jen Chen,Tsung-Yi Ho,Jingtong hu,Yiyu Shi
発行日 2024-05-14 15:04:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク