要約
誤解とは、選択したアイデンティティと一致しない性別で誰かを言及する行為です。
それは人の自己感覚を疎外し、弱体化させ、大きな害を引き起こします。
英語ベースのアプローチには、代名詞「They」の使用など、誤解を回避するための明確なアプローチがあります。
ただし、他の言語は、文法的構造と文化的構成要素の両方により、独自の課題をもたらします。
この作業では、参加型デザインのアプローチを使用して、42の言語と方言にわたって誤解を評価および緩和する方法論を開発し、すべての言語で効果的かつ適切なガードレールを設計します。
これらのガードレールは、データ生成と注釈手順の両方がループ内のアプローチに従った標準の大規模な言語モデルベースのアプリケーション(トランスクリプトの要約を満たす)でテストします。
提案されているガードレールは、生成された要約のすべての言語にわたって誤認率を低下させ、品質の損失を伴うことなく非常に効果的であることがわかります。
私たちのループのアプローチは、複数の言語と文化にわたって、包括的かつ責任あるAIベースのソリューションを実行可能にスケーリングする方法を実証しています。
要約(オリジナル)
Misgendering is the act of referring to someone by a gender that does not match their chosen identity. It marginalizes and undermines a person’s sense of self, causing significant harm. English-based approaches have clear-cut approaches to avoiding misgendering, such as the use of the pronoun “they”. However, other languages pose unique challenges due to both grammatical and cultural constructs. In this work we develop methodologies to assess and mitigate misgendering across 42 languages and dialects using a participatory-design approach to design effective and appropriate guardrails across all languages. We test these guardrails in a standard large language model-based application (meeting transcript summarization), where both the data generation and the annotation steps followed a human-in-the-loop approach. We find that the proposed guardrails are very effective in reducing misgendering rates across all languages in the summaries generated, and without incurring loss of quality. Our human-in-the-loop approach demonstrates a method to feasibly scale inclusive and responsible AI-based solutions across multiple languages and cultures.
arxiv情報
著者 | Sunayana Sitaram,Adrian de Wynter,Isobel McCrum,Qilong Gu,Si-Qing Chen |
発行日 | 2025-03-26 08:01:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google