要約
説得はコミュニケーションの基本的な側面であり、日常の会話から政治、マーケティング、法律などのハイステークスシナリオに至るまで、さまざまな文脈を越えた意思決定に影響を与えます。
会話型AIシステムの増加により、説得の範囲が大幅に拡大し、機会とリスクの両方を導入しています。
AI駆動型の説得は、有益なアプリケーションに活用することができますが、操作と非倫理的な影響を通じて脅威をもたらします。
さらに、AIシステムは説得者であるだけでなく、説得の影響を受けやすく、敵対的な攻撃やバイアス強化に対して脆弱になります。
AIに生成された説得力のあるコンテンツの急速な進歩にもかかわらず、説得を効果的にするものについての理解は、本質的に主観的で文脈依存性の性質のために限られたままです。
この調査では、3つの重要な視点を中心に構成された計算説得の包括的な概要を提供します。(1)AIとしてのAIは、AIに生成された説得力のあるコンテンツとそのアプリケーションを調査します。
(2)AIが影響と操作に対するAIの感受性を調べる説得力としてのAI。
(3)説得力のある戦略の評価、操作の検出、倫理的説得の確保におけるAIの役割を分析する説得裁判官としてのAI。
計算説得の研究のための分類法を紹介し、説得力の評価、操作的説得の緩和、責任あるAI主導の説得力のあるシステムの開発など、重要な課題について議論します。
私たちの調査では、ますます能力のある言語モデルによってもたらされるリスクに対処しながら、AI駆動の説得の安全性、公平性、および有効性を高めるために、将来の研究の方向性を概説しています。
要約(オリジナル)
Persuasion is a fundamental aspect of communication, influencing decision-making across diverse contexts, from everyday conversations to high-stakes scenarios such as politics, marketing, and law. The rise of conversational AI systems has significantly expanded the scope of persuasion, introducing both opportunities and risks. AI-driven persuasion can be leveraged for beneficial applications, but also poses threats through manipulation and unethical influence. Moreover, AI systems are not only persuaders, but also susceptible to persuasion, making them vulnerable to adversarial attacks and bias reinforcement. Despite rapid advancements in AI-generated persuasive content, our understanding of what makes persuasion effective remains limited due to its inherently subjective and context-dependent nature. In this survey, we provide a comprehensive overview of computational persuasion, structured around three key perspectives: (1) AI as a Persuader, which explores AI-generated persuasive content and its applications; (2) AI as a Persuadee, which examines AI’s susceptibility to influence and manipulation; and (3) AI as a Persuasion Judge, which analyzes AI’s role in evaluating persuasive strategies, detecting manipulation, and ensuring ethical persuasion. We introduce a taxonomy for computational persuasion research and discuss key challenges, including evaluating persuasiveness, mitigating manipulative persuasion, and developing responsible AI-driven persuasive systems. Our survey outlines future research directions to enhance the safety, fairness, and effectiveness of AI-powered persuasion while addressing the risks posed by increasingly capable language models.
arxiv情報
著者 | Nimet Beyza Bozdag,Shuhaib Mehri,Xiaocheng Yang,Hyeonjeong Ha,Zirui Cheng,Esin Durmus,Jiaxuan You,Heng Ji,Gokhan Tur,Dilek Hakkani-Tür |
発行日 | 2025-05-12 17:26:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google