要約
最近の進歩により、医療アプリケーション、特にトランスレーショナルリサーチのための臨床試験マッチングの自動化や、臨床意思決定サポートのための医療質問応答の提供における大規模言語モデル (LLM) の可能性が浮き彫りになりました。
しかし、私たちの研究は、特に健康の社会的決定要因の影響を受ける特定の人種、性別、過小評価されているグループの個人にとって、LLMの使用における重大な不平等を明らかにしました。
LLM が医療分野で広く採用された場合、これらの格差は既存の健康の不平等を悪化させる可能性があります。
これに対処するために、LLM ベースの医療アプリケーションのバイアスを検出して軽減するように設計された新しいフレームワーク EquityGuard を提案し、評価します。
EquityGuard には、不公平な予測を特定して修正できるバイアス検出メカニズムが組み込まれているため、結果が向上し、多様な人口グループ間の公平性が促進されます。
要約(オリジナル)
Recent advancements have highlighted the potential of large language models (LLMs) in medical applications, notably in automating Clinical Trial Matching for translational research and providing medical question-answering for clinical decision support. However, our study reveals significant inequities in the use of LLMs, particularly for individuals from specific racial, gender, and underrepresented groups influenced by social determinants of health. These disparities could worsen existing health inequities if LLMs are broadly adopted in healthcare. To address this, we propose and evaluate a novel framework, EquityGuard, designed to detect and mitigate biases in LLM-based medical applications. EquityGuard incorporates a Bias Detection Mechanism capable of identifying and correcting unfair predictions, thus enhancing outcomes and promoting equity across diverse population groups.
arxiv情報
著者 | Yuelyu Ji,Wenhe Ma,Sonish Sivarajkumar,Hang Zhang,Eugene Mathew Sadhu,Zhuochun Li,Xizhi Wu,Shyam Visweswaran,Yanshan Wang |
発行日 | 2024-10-07 16:40:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google