要約
深いニューラルネットワークは医療イメージングに優れていますが、バイアスの傾向があり、人口統計グループ全体の公平性のギャップにつながります。
このドメインにおける人間との整合性と公平性の最初の体系的な調査を提供します。
我々の結果は、人間の洞察を組み込むことで一貫して公平性のギャップを縮小し、ドメイン外の一般化を強化することを示していますが、過度のアライメントはパフォーマンスのトレードオフを導入し、調整された戦略の必要性を強調することができます。
これらの調査結果は、公正で堅牢で一般化可能な医療AIシステムを開発するための有望なアプローチとして、人間との調整を強調し、専門家のガイダンスと自動化効率のバランスをとっています。
私たちのコードは、https://github.com/roypic/alignerで入手できます。
要約(オリジナル)
Deep neural networks excel in medical imaging but remain prone to biases, leading to fairness gaps across demographic groups. We provide the first systematic exploration of Human-AI alignment and fairness in this domain. Our results show that incorporating human insights consistently reduces fairness gaps and enhances out-of-domain generalization, though excessive alignment can introduce performance trade-offs, emphasizing the need for calibrated strategies. These findings highlight Human-AI alignment as a promising approach for developing fair, robust, and generalizable medical AI systems, striking a balance between expert guidance and automated efficiency. Our code is available at https://github.com/Roypic/Aligner.
arxiv情報
著者 | Haozhe Luo,Ziyu Zhou,Zixin Shu,Aurélie Pahud de Mortanges,Robert Berke,Mauricio Reyes |
発行日 | 2025-05-15 12:43:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google