Unmasking Nationality Bias: A Study of Human Perception of Nationalities in AI-Generated Articles

要約

私たちは人間による評価手法を使用して、自然言語処理 (NLP) モデルにおける国籍バイアスの可能性を調査します。
偏った NLP モデルは固定観念を永続させ、アルゴリズムによる差別につながる可能性があり、AI システムの公平性と正義に重大な課題をもたらします。
私たちの研究では、テキスト生成モデルにおける国籍バイアスの影響を特定して理解するために、定量的分析と定性的分析の両方を含む 2 段階の混合手法アプローチを採用しています。
人間中心の定量分析を通じて、AI ソースによって生成された記事の国籍バイアスの程度を測定します。
次に、参加者に対して自由回答形式のインタビューを実施し、質的コーディングとテーマ分析を実行して、これらのバイアスが人間の読者に及ぼす影響を理解します。
私たちの調査結果では、バイアスのある NLP モデルは既存の社会バイアスを再現および増幅する傾向があり、社会技術的な環境で使用すると害をもたらす可能性があることが明らかになりました。
私たちのインタビューからの定性分析は、読者がそのような記事に遭遇したときに持つ経験についての洞察を提供し、読者の国に対する認識を変える可能性を浮き彫りにします。
これらの調査結果は、AI が社会に与える影響を形作る上で一般の人々の認識が重要な役割を果たすことと、AI システムのバイアスを修正する必要性を強調しています。

要約(オリジナル)

We investigate the potential for nationality biases in natural language processing (NLP) models using human evaluation methods. Biased NLP models can perpetuate stereotypes and lead to algorithmic discrimination, posing a significant challenge to the fairness and justice of AI systems. Our study employs a two-step mixed-methods approach that includes both quantitative and qualitative analysis to identify and understand the impact of nationality bias in a text generation model. Through our human-centered quantitative analysis, we measure the extent of nationality bias in articles generated by AI sources. We then conduct open-ended interviews with participants, performing qualitative coding and thematic analysis to understand the implications of these biases on human readers. Our findings reveal that biased NLP models tend to replicate and amplify existing societal biases, which can translate to harm if used in a sociotechnical setting. The qualitative analysis from our interviews offers insights into the experience readers have when encountering such articles, highlighting the potential to shift a reader’s perception of a country. These findings emphasize the critical role of public perception in shaping AI’s impact on society and the need to correct biases in AI systems.

arxiv情報

著者 Pranav Narayanan Venkit,Sanjana Gautam,Ruchi Panchanadikar,Ting-Hao `Kenneth’ Huang,Shomir Wilson
発行日 2023-08-08 15:46:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CY パーマリンク