要約
大規模言語モデル (LLM) は、コーディング ツールやライティング アシスタントなどの日常的な製品やサービスにますます統合されています。
これらの組み込み AI アプリケーションが世界的に展開されるにつれ、これらのアプリケーションの基礎となる AI モデルが西洋の価値観を優先しているのではないかという懸念が高まっています。
この論文では、西洋中心の AI モデルが異なる文化的背景を持つユーザーに文章の提案を提供した場合に何が起こるかを調査します。
私たちは、インドと米国からの 118 人の参加者を対象に、AI の提案の有無にかかわらず、文化に基づいたライティング タスクを完了した異文化対照実験を実施しました。
私たちの分析では、AI によってインド人に比べてアメリカ人の方が効率が大幅に向上したことが明らかになりました。
さらに、AI の提案により、インドの参加者は西洋の文体を採用するようになり、書かれる内容だけでなく書き方も変わりました。
これらの発見は、西洋中心の AI モデルが西洋の規範に沿った文章を均質化し、文化的表現を区別するニュアンスを減少させることを示しています。
要約(オリジナル)
Large language models (LLMs) are being increasingly integrated into everyday products and services, such as coding tools and writing assistants. As these embedded AI applications are deployed globally, there is a growing concern that the AI models underlying these applications prioritize Western values. This paper investigates what happens when a Western-centric AI model provides writing suggestions to users from a different cultural background. We conducted a cross-cultural controlled experiment with 118 participants from India and the United States who completed culturally grounded writing tasks with and without AI suggestions. Our analysis reveals that AI provided greater efficiency gains for Americans compared to Indians. Moreover, AI suggestions led Indian participants to adopt Western writing styles, altering not just what is written but also how it is written. These findings show that Western-centric AI models homogenize writing toward Western norms, diminishing nuances that differentiate cultural expression.
arxiv情報
著者 | Dhruv Agarwal,Mor Naaman,Aditya Vashistha |
発行日 | 2024-09-17 17:07:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google