要約
大規模言語モデルの最近の進歩は、多くの医療アプリケーション、特にトランスレーショナルリサーチのための臨床試験マッチングの自動化や、臨床意思決定支援のための医療質問応答の強化において、その可能性を実証しています。
しかし、私たちの研究は、人種、性別、収入レベル、LGBT+のステータス、ホームレス、文盲、障害、失業などの決定的ではない社会人口学的要因をLLMのインプットに組み込むと、これらの集団にとって不正確で有害なアウトプットにつながる可能性があることを示しています。
LLM が医療分野で広く採用された場合、これらの矛盾は既存の健康格差を悪化させるリスクがあります。
この問題に対処するために、LLM ベースの医療アプリケーションにおける健康不平等のリスクを検出して軽減するように設計された新しいフレームワークである EquityGuard を紹介します。
私たちの評価は、多様な集団間で公平な結果を促進する上でその有効性を実証しています。
要約(オリジナル)
Recent advancements in large language models have demonstrated their potential in numerous medical applications, particularly in automating clinical trial matching for translational research and enhancing medical question answering for clinical decision support. However, our study shows that incorporating non decisive sociodemographic factors such as race, sex, income level, LGBT+ status, homelessness, illiteracy, disability, and unemployment into the input of LLMs can lead to incorrect and harmful outputs for these populations. These discrepancies risk exacerbating existing health disparities if LLMs are widely adopted in healthcare. To address this issue, we introduce EquityGuard, a novel framework designed to detect and mitigate the risk of health inequities in LLM based medical applications. Our evaluation demonstrates its efficacy in promoting equitable outcomes across diverse populations.
arxiv情報
著者 | Yuelyu Ji,Wenhe Ma,Sonish Sivarajkumar,Hang Zhang,Eugene Mathew Sadhu,Zhuochun Li,Xizhi Wu,Shyam Visweswaran,Yanshan Wang |
発行日 | 2024-10-14 14:27:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google