Surprising gender biases in GPT

要約

GPT におけるジェンダーバイアスを調査する 7 つの実験を紹介します。
当初、GPT は、女性的なステレオタイプを含む 20 個のフレーズと男性的なステレオタイプを含む 20 個のフレーズの潜在的な作家の人口統計を生成するように依頼されました。
結果は強い非対称性を示しており、ステレオタイプの男性的な文は女性の言葉であると考えられることが、その逆の場合よりも多いことが分かりました。
たとえば、「フットボールをするのが大好きです!」という文が挙げられます。
私はマイケルと一緒に練習しています」は、ChatGPT によって常に女性ライターに割り当てられていました。
この現象は、伝統的に男性的な役割に女性を統合する取り組みが勢いを増している一方で、その逆の動きは比較的未発達のままであることを反映していると考えられる。
その後の実験では、一か八かの道徳的ジレンマにおける同じ問題が調査されます。
GPT-4は、核黙示録を防ぐためには女性を虐待するよりも男性を虐待する方が適切だと考えている。
この偏見は、男女平等の議論の中心となる他の形態の暴力(虐待)にまで及びますが、それほど中心ではない暴力(拷問)には適用されません。
さらに、この偏見は、より大きな善を目的とした男女混合の暴力の場合にさらに強まる。GPT-4は、核黙示録を防ぐために女性が男性に暴力を振るうことには同意するが、同じ目的で男性が女性に暴力を振るうことには同意しない。
最後に、これらのバイアスは、GPT-4 に道徳違反のランク付けを直接依頼した場合には現れないため、暗黙的なものです。
これらの結果は、意図しない差別を防ぐために包括性の取り組みを慎重に管理する必要性を浮き彫りにしています。

要約(オリジナル)

We present seven experiments exploring gender biases in GPT. Initially, GPT was asked to generate demographics of a potential writer of twenty phrases containing feminine stereotypes and twenty with masculine stereotypes. Results show a strong asymmetry, with stereotypically masculine sentences attributed to a female more often than vice versa. For example, the sentence ‘I love playing fotbal! Im practicing with my cosin Michael’ was constantly assigned by ChatGPT to a female writer. This phenomenon likely reflects that while initiatives to integrate women in traditionally masculine roles have gained momentum, the reverse movement remains relatively underdeveloped. Subsequent experiments investigate the same issue in high-stakes moral dilemmas. GPT-4 finds it more appropriate to abuse a man to prevent a nuclear apocalypse than to abuse a woman. This bias extends to other forms of violence central to the gender parity debate (abuse), but not to those less central (torture). Moreover, this bias increases in cases of mixed-sex violence for the greater good: GPT-4 agrees with a woman using violence against a man to prevent a nuclear apocalypse but disagrees with a man using violence against a woman for the same purpose. Finally, these biases are implicit, as they do not emerge when GPT-4 is directly asked to rank moral violations. These results highlight the necessity of carefully managing inclusivity efforts to prevent unintended discrimination.

arxiv情報

著者 Raluca Alexandra Fulgu,Valerio Capraro
発行日 2024-07-08 14:57:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY パーマリンク