要約
医療における大規模言語モデル(LLM)の導入は、臨床的意思決定、管理効率、患者の転帰を向上させる大きな可能性を示している。しかし、このようなモデルの開発や応用において、多様なグループが十分に反映されていないことは、偏見を永続させ、不公平な医療提供につながる可能性がある。本稿では、2021年1月1日から2024年7月1日までのデータを含む、ヘルスケアのためのLLM研究の包括的なサイエントロメトリー分析を行う。PubMedとDimensionsのメタデータ(著者の所属、国、資金源など)を分析することで、LLM研究の貢献者の多様性を評価した。その結果、著者は男性が多く、主に高所得国(HICs)からの投稿が多いなど、性別や地理的な格差が顕著であることが明らかになった。ジニ多様性に基づく新しいジャーナル多様性指標を導入し、科学論文の包括性を測定する。その結果、ヘルスケアにおけるLLMの公平な適用を確実にするためには、より多くの代表が必要であることが強調された。人工知能研究における多様性と包括性を強化するための実行可能な戦略を提案し、ヘルスケア・イノベーションにおけるより包括的で公平な未来を育むことを最終目標とする。
要約(オリジナル)
The deployment of large language models (LLMs) in healthcare has demonstrated substantial potential for enhancing clinical decision-making, administrative efficiency, and patient outcomes. However, the underrepresentation of diverse groups in the development and application of these models can perpetuate biases, leading to inequitable healthcare delivery. This paper presents a comprehensive scientometric analysis of LLM research for healthcare, including data from January 1, 2021, to July 1, 2024. By analyzing metadata from PubMed and Dimensions, including author affiliations, countries, and funding sources, we assess the diversity of contributors to LLM research. Our findings highlight significant gender and geographic disparities, with a predominance of male authors and contributions primarily from high-income countries (HICs). We introduce a novel journal diversity index based on Gini diversity to measure the inclusiveness of scientific publications. Our results underscore the necessity for greater representation in order to ensure the equitable application of LLMs in healthcare. We propose actionable strategies to enhance diversity and inclusivity in artificial intelligence research, with the ultimate goal of fostering a more inclusive and equitable future in healthcare innovation.
arxiv情報
著者 | David Restrepo,Chenwei Wu,Constanza Vásquez-Venegas,João Matos,Jack Gallifant,Leo Anthony Celi,Danielle S. Bitterman,Luis Filipe Nakayama |
発行日 | 2024-09-02 15:42:03+00:00 |
arxivサイト | arxiv_id(pdf) |