Polarization of Autonomous Generative AI Agents Under Echo Chambers

要約

オンライン ソーシャル ネットワークは、多くの場合、人々が自分の信念を強化する意見だけを聞くエコー チェンバーを作成します。
エコー チェンバーはしばしば二極化を引き起こし、2021 年 1 月 6 日の米国議会議事堂襲撃など、過激な意見を持つ人々によって引き起こされる紛争につながります。
エコー チェンバーは人間特有の問題とみなされてきましたが、ChatGPT などの大規模な言語モデルが社会的能力を獲得するにつれて、この暗黙の仮定は合理的ではなくなりつつあります。
この状況に対応して、私たちは、エコー チェンバー環境における生成言語モデルに基づいて、自律型 AI エージェントのグループ間で二極化が発生する可能性を調査しました。
AI エージェントに特定のトピックについて議論してもらい、議論が進むにつれてグループの意見がどのように変化したかを分析しました。
その結果、ChatGPT に基づくエージェントのグループは、エコー チャンバー環境で二極化する傾向があることがわかりました。
意見推移の分析から、この結果はChatGPTが自身や周囲のエージェントの意見を考慮して意見を更新する高い即時理解能力に起因していることが分かりました。
私たちは、AI エージェントがどのような特定の条件下で二極化する傾向があるかを調査するために追加の実験を実施しました。
その結果、エージェントのペルソナなど、二極化に強く影響する要因を特定しました。
AI エージェントの二極化を防ぐために、これらの要因を監視する必要があります。

要約(オリジナル)

Online social networks often create echo chambers where people only hear opinions reinforcing their beliefs. An echo chamber often generates polarization, leading to conflicts caused by people with radical opinions, such as the January 6, 2021, attack on the US Capitol. The echo chamber has been viewed as a human-specific problem, but this implicit assumption is becoming less reasonable as large language models, such as ChatGPT, acquire social abilities. In response to this situation, we investigated the potential for polarization to occur among a group of autonomous AI agents based on generative language models in an echo chamber environment. We had AI agents discuss specific topics and analyzed how the group’s opinions changed as the discussion progressed. As a result, we found that the group of agents based on ChatGPT tended to become polarized in echo chamber environments. The analysis of opinion transitions shows that this result is caused by ChatGPT’s high prompt understanding ability to update its opinion by considering its own and surrounding agents’ opinions. We conducted additional experiments to investigate under what specific conditions AI agents tended to polarize. As a result, we identified factors that strongly influence polarization, such as the agent’s persona. These factors should be monitored to prevent the polarization of AI agents.

arxiv情報

著者 Masaya Ohagi
発行日 2024-02-19 15:14:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク