要約
この論文では、AI がダイバーシティとインクルージョンをどのようにサポートできるかについて詳しく説明し、その方向で行われた研究プロジェクトを例に挙げます。
まず、大規模言語モデル (LLM) の透明性と包括性を高め、社会的偏見を意識したものにするための課題と進捗状況を検討します。
ChatGPT のような LLM は優れた能力を持っていますが、異なる文化的背景を理解し、有意義で人間らしい会話をするのに苦労しています。
重要な問題は、言語処理、特に機械翻訳におけるバイアスが不平等を助長する可能性があることです。
こうした偏見に取り組むには、AI が多様性、公平性、包括性を確実に促進するための学際的なアプローチが必要です。
また、表現を改善するために重要である、メディア内の偏ったコンテンツを特定する AI の役割にも焦点を当てます。
AI は、社会的グループの不平等な描写を検出することで、固定概念に挑戦し、より包括的なテクノロジーを生み出すのに役立ちます。
意思決定を明確に説明する透明性の高い AI アルゴリズムは、AI システムにおける信頼を構築し、バイアスを軽減するために不可欠です。
また、AI システムには多様で包括的なトレーニング データが必要であることも強調します。
Child Growth Monitor のようなプロジェクトは、幅広いデータの使用が栄養不良や貧困などの現実世界の問題の解決にどのように役立つかを示しています。
私たちは、LGBTQ+ コミュニティに関する偽情報の拡散における検索エンジンの役割を監視するために AI をどのように適用できるかを実証するプロジェクトを紹介します。
さらに、テクノロジーが聴者と聴覚障害者の間のコミュニケーションギャップをどのように埋めることができるかを示す例として SignON プロジェクトについて説明し、包括的な AI の開発におけるコラボレーションと相互信頼の重要性を強調します。
全体として、この文書では、効果的であるだけでなく社会的責任もあり、人間と機械の間の公平かつ包括的な相互作用を促進する AI システムを提唱しています。
要約(オリジナル)
In this paper, we elaborate on how AI can support diversity and inclusion and exemplify research projects conducted in that direction. We start by looking at the challenges and progress in making large language models (LLMs) more transparent, inclusive, and aware of social biases. Even though LLMs like ChatGPT have impressive abilities, they struggle to understand different cultural contexts and engage in meaningful, human like conversations. A key issue is that biases in language processing, especially in machine translation, can reinforce inequality. Tackling these biases requires a multidisciplinary approach to ensure AI promotes diversity, fairness, and inclusion. We also highlight AI’s role in identifying biased content in media, which is important for improving representation. By detecting unequal portrayals of social groups, AI can help challenge stereotypes and create more inclusive technologies. Transparent AI algorithms, which clearly explain their decisions, are essential for building trust and reducing bias in AI systems. We also stress AI systems need diverse and inclusive training data. Projects like the Child Growth Monitor show how using a wide range of data can help address real world problems like malnutrition and poverty. We present a project that demonstrates how AI can be applied to monitor the role of search engines in spreading disinformation about the LGBTQ+ community. Moreover, we discuss the SignON project as an example of how technology can bridge communication gaps between hearing and deaf people, emphasizing the importance of collaboration and mutual trust in developing inclusive AI. Overall, with this paper, we advocate for AI systems that are not only effective but also socially responsible, promoting fair and inclusive interactions between humans and machines.
arxiv情報
著者 | Çiçek Güven,Afra Alishahi,Henry Brighton,Gonzalo Nápoles,Juan Sebastian Olier,Marie Šafář,Eric Postma,Dimitar Shterionov,Mirella De Sisto,Eva Vanmassenhove |
発行日 | 2025-01-16 13:36:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google