AI Will Always Love You: Studying Implicit Biases in Romantic AI Companions

要約

既存の研究では、職業性の性別バイアスを含む生成モデルの明示的なバイアスが認識されていますが、性別のステレオタイプのニュアンスとユーザーとAIの仲間との関係の期待は未熟なままです。
それまでの間、AIの仲間は、友人や性別のあるロマンチックなパートナーとしてユーザーにますます人気が高まってきました。
この研究は、ロマンチックで性別が割り当てられたAI仲間とそのユーザーに合わせて調整された3つの実験を考案し、さまざまなサイズのLLMにわたって暗黙的なバイアスを効果的に評価することにより、ギャップを橋渡しします。
各実験は、暗黙の関連性、感情反応、およびsycophancyという異なる次元を調べます。
この研究の目的は、新たに考案されたメトリックを介してベースラインに対するペルソナ割り当てのモデル応答を定量的に分析することにより、さまざまなコンパニオンシステムで明らかにされたバイアスを測定および比較することです。
結果は注目に値します。彼らは、性別を与えられた関係のペルソナを大規模な言語モデルに割り当てることは、これらのモデルの応答を大幅に変えることを示しています。

要約(オリジナル)

While existing studies have recognised explicit biases in generative models, including occupational gender biases, the nuances of gender stereotypes and expectations of relationships between users and AI companions remain underexplored. In the meantime, AI companions have become increasingly popular as friends or gendered romantic partners to their users. This study bridges the gap by devising three experiments tailored for romantic, gender-assigned AI companions and their users, effectively evaluating implicit biases across various-sized LLMs. Each experiment looks at a different dimension: implicit associations, emotion responses, and sycophancy. This study aims to measure and compare biases manifested in different companion systems by quantitatively analysing persona-assigned model responses to a baseline through newly devised metrics. The results are noteworthy: they show that assigning gendered, relationship personas to Large Language Models significantly alters the responses of these models, and in certain situations in a biased, stereotypical way.

arxiv情報

著者 Clare Grogan,Jackie Kay,María Pérez-Ortiz
発行日 2025-02-27 16:16:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク