要約
臨床記録に基づいてトレーニングされた人工知能ベースの予測モデルは、人口統計的に偏っている可能性があります。
これは、患者の入院期間などの結果を予測する際に、医療格差に悪影響を与える可能性があります。
したがって、これらのモデル内の人口統計上の偏りを軽減する必要があります。
私たちは、機械学習モデルが性別、民族、人種などの敏感な属性に基づいて個人の異なる結果を予測するときに発生する異質な扱いに対処するための、暗黙的な処理中のバイアス軽減手法を提案しました。
この目的のために、我々は心不全患者の臨床記録を使用し、診断コード、処置報告書、および患者の生理学的バイタルを使用した。
臨床 BERT を使用して診断コードおよび手順レポート内の特徴の埋め込みを取得し、LSTM オートエンコーダーを使用して生理学的バイタル内の特徴の埋め込みを取得しました。
次に、2 つの別々の深層学習対照学習フレームワーク (1 つは性別用、もう 1 つは民族用) をトレーニングして、これらの人口統計的特徴内で偏りのない表現を取得しました。
私たちはこのバイアス除去フレームワークを Debias-CLR と呼びました。
私たちは、前回の研究の診断コードと手順レポートで特定された患者の臨床表現型を活用して、統計的に公平性を測定しました。
Debias-CLR は、性別と民族性のバイアスを軽減する際に、単一カテゴリ単語埋め込み関連テスト (SC-WEAT) の効果サイズ スコアを削減できることがわかりました。
さらに、Debias-CLR を使用して埋め込み空間で公平な表現を取得するために、患者の入院期間の予測などの下流タスクの予測モデルの精度が、患者のトレーニングに非バイアス化されていない対応物を使用した場合と比較して低下しないこともわかりました。
予測モデル。
したがって、私たちは、私たちが提案するアプローチである Debias-CLR は、人口統計上のバイアスを軽減する上で公平かつ代表的なものであり、健康格差を減らすことができると結論付けています。
要約(オリジナル)
Artificial intelligence based predictive models trained on the clinical notes can be demographically biased. This could lead to adverse healthcare disparities in predicting outcomes like length of stay of the patients. Thus, it is necessary to mitigate the demographic biases within these models. We proposed an implicit in-processing debiasing method to combat disparate treatment which occurs when the machine learning model predict different outcomes for individuals based on the sensitive attributes like gender, ethnicity, race, and likewise. For this purpose, we used clinical notes of heart failure patients and used diagnostic codes, procedure reports and physiological vitals of the patients. We used Clinical BERT to obtain feature embeddings within the diagnostic codes and procedure reports, and LSTM autoencoders to obtain feature embeddings within the physiological vitals. Then, we trained two separate deep learning contrastive learning frameworks, one for gender and the other for ethnicity to obtain debiased representations within those demographic traits. We called this debiasing framework Debias-CLR. We leveraged clinical phenotypes of the patients identified in the diagnostic codes and procedure reports in the previous study to measure fairness statistically. We found that Debias-CLR was able to reduce the Single-Category Word Embedding Association Test (SC-WEAT) effect size score when debiasing for gender and ethnicity. We further found that to obtain fair representations in the embedding space using Debias-CLR, the accuracy of the predictive models on downstream tasks like predicting length of stay of the patients did not get reduced as compared to using the un-debiased counterparts for training the predictive models. Hence, we conclude that our proposed approach, Debias-CLR is fair and representative in mitigating demographic biases and can reduce health disparities.
arxiv情報
著者 | Ankita Agarwal,Tanvi Banerjee,William Romine,Mia Cajita |
発行日 | 2024-11-20 17:06:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google