The Multilingual Divide and Its Impact on Global AI Safety

要約

近年の大規模な言語モデル能力の進歩にもかかわらず、比較的少数の世界的に支配的な言語を超えて、多くの言語の能力と安全性能に大きなギャップが残っています。
このホワイトペーパーは、研究者、政策立案者、ガバナンスの専門家に、AIの「言語ギャップ」を埋め、言語間の安全リスクを最小限に抑えるための重要な課題の概要を提供します。
AIの言語ギャップが存在し成長する理由と、グローバルなAIの安全性に格差を生み出す理由の分析を提供します。
これらの課題に対処するための障壁を特定し、ポリシーとガバナンスで働く人々が、多言語のデータセットの作成、透明性、および研究をサポートすることにより、言語のギャップに関連する安全性の懸念にどのように対処できるかを推奨します。

要約(オリジナル)

Despite advances in large language model capabilities in recent years, a large gap remains in their capabilities and safety performance for many languages beyond a relatively small handful of globally dominant languages. This paper provides researchers, policymakers and governance experts with an overview of key challenges to bridging the ‘language gap’ in AI and minimizing safety risks across languages. We provide an analysis of why the language gap in AI exists and grows, and how it creates disparities in global AI safety. We identify barriers to address these challenges, and recommend how those working in policy and governance can help address safety concerns associated with the language gap by supporting multilingual dataset creation, transparency, and research.

arxiv情報

著者 Aidan Peppin,Julia Kreutzer,Alice Schoenauer Sebag,Kelly Marchisio,Beyza Ermis,John Dang,Samuel Cahyawijaya,Shivalika Singh,Seraphina Goldfarb-Tarrant,Viraat Aryabumi,Aakanksha,Wei-Yin Ko,Ahmet Üstün,Matthias Gallé,Marzieh Fadaee,Sara Hooker
発行日 2025-05-27 15:37:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク