Can (A)I Change Your Mind?

要約

大規模な言語モデル(LLMS)ベースの会話エージェントの日常生活への統合の増加は、人間の意見に影響を与える可能性についての重要な認知的および社会的疑問を提起します。
以前の研究では、LLMベースのエージェントが説得力のあるコンテンツを生成できることが示されていますが、これらは通常、制御された英語の設定を伴います。
これに対処するために、私たちの前提条件の研究では、より生態学的で制約のないシナリオでLLMSの説得力のある能力を調査し、静的(書かれた段落)と動的(電報による会話)相互作用タイプの両方を調べました。
200人の参加者とともにヘブライ語で完全に実施されたこの研究では、論争の的となっている市民政策のトピックに対するLLMと人間の対談者の両方の説得力のある影響を評価しました。
結果は、参加者がLLMと人間の視点を同様に採用し、対話者の種類や相互作用モードに関係なく、すべての条件で重要な意見の変化が明らかになったことを示しています。
ほとんどのシナリオで信頼レベルが大幅に増加しました。
これらの調査結果は、LLMベースのエージェントの多様な情報源と設定にわたる堅牢な説得力のある能力を示しており、世論の形成への潜在的な影響を強調しています。

要約(オリジナル)

The increasing integration of large language models (LLMs) based conversational agents into everyday life raises critical cognitive and social questions about their potential to influence human opinions. Although previous studies have shown that LLM-based agents can generate persuasive content, these typically involve controlled English-language settings. Addressing this, our preregistered study explored LLMs’ persuasive capabilities in more ecological, unconstrained scenarios, examining both static (written paragraphs) and dynamic (conversations via Telegram) interaction types. Conducted entirely in Hebrew with 200 participants, the study assessed the persuasive effects of both LLM and human interlocutors on controversial civil policy topics. Results indicated that participants adopted LLM and human perspectives similarly, with significant opinion changes evident across all conditions, regardless of interlocutor type or interaction mode. Confidence levels increased significantly in most scenarios. These findings demonstrate LLM-based agents’ robust persuasive capabilities across diverse sources and settings, highlighting their potential impact on shaping public opinions.

arxiv情報

著者 Miriam Havin,Timna Wharton Kleinman,Moran Koren,Yaniv Dover,Ariel Goldstein
発行日 2025-05-13 12:45:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク