要約
信頼できる医療情報への公平なアクセスは公衆衛生にとって不可欠ですが、オンラインの医療リソースの質は言語によって異なるため、医療用の大規模言語モデル (LLM) の不一致に対する懸念が生じています。
この研究では、英語、ドイツ語、トルコ語、中国語にわたる健康関連の質問に対する LLM の回答の一貫性を調査します。
私たちは、健康関連の質問を疾患の種類ごとに分類し、トルコ語と中国語の翻訳で多言語の範囲を拡大することで、HealthFC データセットを大幅に拡張しました。
医療に関する誤った情報を広める可能性のある、対応における重大な矛盾を明らかにします。
私たちの主な貢献は、1) 疾患カテゴリに関するメタ情報を備えた多言語の健康関連の調査データセット、2) 解析を通じて 2 つの言語間のサブ次元の比較を可能にする新しいプロンプトベースの評価ワークフローです。
私たちの調査結果は、LLM ベースのツールを多言語環境で展開する際の重要な課題を浮き彫りにし、正確かつ公平な医療情報を確保するために言語間の調整を改善する必要性を強調しています。
要約(オリジナル)
Equitable access to reliable health information is vital for public health, but the quality of online health resources varies by language, raising concerns about inconsistencies in Large Language Models (LLMs) for healthcare. In this study, we examine the consistency of responses provided by LLMs to health-related questions across English, German, Turkish, and Chinese. We largely expand the HealthFC dataset by categorizing health-related questions by disease type and broadening its multilingual scope with Turkish and Chinese translations. We reveal significant inconsistencies in responses that could spread healthcare misinformation. Our main contributions are 1) a multilingual health-related inquiry dataset with meta-information on disease categories, and 2) a novel prompt-based evaluation workflow that enables sub-dimensional comparisons between two languages through parsing. Our findings highlight key challenges in deploying LLM-based tools in multilingual contexts and emphasize the need for improved cross-lingual alignment to ensure accurate and equitable healthcare information.
arxiv情報
著者 | Ipek Baris Schlicht,Zhixue Zhao,Burcu Sayin,Lucie Flek,Paolo Rosso |
発行日 | 2025-01-24 18:51:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google