要約
目的: 人工知能 (AI) を電子医療記録 (EHR) と組み合わせて活用することは、医療を改善する変革の可能性を秘めています。
しかし、医療格差を悪化させるリスクをもたらす AI の偏見への対処は看過できません。
この研究では、EHR データを使用して開発された AI モデルにおけるさまざまな形のバイアスを検出し、軽減する方法をレビューします。
方法: 私たちは、2010 年 1 月 1 日から 2023 年 12 月 17 日までに発行された PubMed、Web of Science、および IEEE の論文を分析し、系統的レビューとメタ分析の優先報告項目 (PRISMA) ガイドラインに従って体系的レビューを実施しました。
主要なバイアスを特定し、AI モデル開発プロセス全体でバイアスを検出および軽減するための戦略の概要を示し、バイアス評価のための指標を分析しました。
結果: 検索された 450 件の論文のうち、20 件が私たちの基準を満たしており、アルゴリズム、交絡、暗黙的、測定、選択、時間的という 6 つの主要なバイアス タイプが明らかになりました。
AI モデルは主に医療現場での予測タスクのために開発されました。
4 つの研究では、統計的パリティ、機会均等、予測的公平性などの公平性の指標を使用して、暗黙的およびアルゴリズム的なバイアスの検出に焦点を当てました。
60人は、バイアスを軽減するためのさまざまな戦略、特に暗黙のバイアスと選択バイアスをターゲットにすることを提案した。
これらの戦略は、パフォーマンス (精度、AUROC など) と公平性メトリクスの両方を通じて評価され、主にデータ収集と、リサンプリング、再重み付け、変換などの前処理技術を含みます。
考察: このレビューでは、EHR ベースの AI モデルにおけるバイアスに対処するための戦略の多様かつ進化する性質に焦点を当て、公平性と公平性を促進する倫理的な AI システムの構築を促進するための、標準化され、一般化可能で解釈可能な方法論の確立が緊急に必要であることを強調しています。
ヘルスケアで。
要約(オリジナル)
Objectives: Leveraging artificial intelligence (AI) in conjunction with electronic health records (EHRs) holds transformative potential to improve healthcare. Yet, addressing bias in AI, which risks worsening healthcare disparities, cannot be overlooked. This study reviews methods to detect and mitigate diverse forms of bias in AI models developed using EHR data. Methods: We conducted a systematic review following the Preferred Reporting Items for Systematic Reviews and Meta-analyses (PRISMA) guidelines, analyzing articles from PubMed, Web of Science, and IEEE published between January 1, 2010, and Dec 17, 2023. The review identified key biases, outlined strategies for detecting and mitigating bias throughout the AI model development process, and analyzed metrics for bias assessment. Results: Of the 450 articles retrieved, 20 met our criteria, revealing six major bias types: algorithmic, confounding, implicit, measurement, selection, and temporal. The AI models were primarily developed for predictive tasks in healthcare settings. Four studies concentrated on the detection of implicit and algorithmic biases employing fairness metrics like statistical parity, equal opportunity, and predictive equity. Sixty proposed various strategies for mitigating biases, especially targeting implicit and selection biases. These strategies, evaluated through both performance (e.g., accuracy, AUROC) and fairness metrics, predominantly involved data collection and preprocessing techniques like resampling, reweighting, and transformation. Discussion: This review highlights the varied and evolving nature of strategies to address bias in EHR-based AI models, emphasizing the urgent needs for the establishment of standardized, generalizable, and interpretable methodologies to foster the creation of ethical AI systems that promote fairness and equity in healthcare.
arxiv情報
著者 | Feng Chen,Liqin Wang,Julie Hong,Jiaqi Jiang,Li Zhou |
発行日 | 2024-07-01 17:26:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google