Persuasion Games using Large Language Models

要約

大規模言語モデル(LLM)は、人間のようなテキストを理解し、生成することができる強力な道具として登場した。本稿では、ユーザーの視点を形成し、特定のタスクに対するユーザーの意思決定に影響を与えるLLMの可能性を探る。この能力は、投資、クレジットカード、保険などの多様な領域で応用され、ユーザーが適切な保険、投資プラン、クレジットカード、小売店、行動変容支援システム(BCSS)などを選択するのを支援する。 我々は、エージェントのコンソーシアムが協調的に動作する洗練されたマルチエージェントフレームワークを提示する。主エージェントは説得的な対話を通じてユーザエージェントと直接関わり、補助エージェントは情報検索、応答分析、説得戦略の開発、事実の検証などのタスクを実行する。我々の実験から得られた経験的証拠は、この協調的方法論がLLMの説得効果を著しく高めることを示している。我々は、ルールベースとLLMベースの抵抗-説得マッピング技術を組み合わせることにより、説得努力に対するユーザーエージェントの抵抗を継続的に分析し、それに対抗する。 保険、銀行、小売の各領域における模擬ペルソナを採用し、会話を生成することで、様々なパーソナリティタイプを認識し、適応し、影響を与える大規模言語モデル(LLM)の習熟度を評価する。同時に、LLMでシミュレートされたペルソナが採用する抵抗メカニズムを検証する。説得力は、対話前後の測定可能な調査、LLMが生成した会話に関するスコア、ユーザーの意思決定(購入または非購入)によって定量化される。

要約(オリジナル)

Large Language Models (LLMs) have emerged as formidable instruments capable of comprehending and producing human-like text. This paper explores the potential of LLMs, to shape user perspectives and subsequently influence their decisions on particular tasks. This capability finds applications in diverse domains such as Investment, Credit cards and Insurance, wherein they assist users in selecting appropriate insurance policies, investment plans, Credit cards, Retail, as well as in Behavioral Change Support Systems (BCSS). We present a sophisticated multi-agent framework wherein a consortium of agents operate in collaborative manner. The primary agent engages directly with user agents through persuasive dialogue, while the auxiliary agents perform tasks such as information retrieval, response analysis, development of persuasion strategies, and validation of facts. Empirical evidence from our experiments demonstrates that this collaborative methodology significantly enhances the persuasive efficacy of the LLM. We continuously analyze the resistance of the user agent to persuasive efforts and counteract it by employing a combination of rule-based and LLM-based resistance-persuasion mapping techniques. We employ simulated personas and generate conversations in insurance, banking, and retail domains to evaluate the proficiency of large language models (LLMs) in recognizing, adjusting to, and influencing various personality types. Concurrently, we examine the resistance mechanisms employed by LLM simulated personas. Persuasion is quantified via measurable surveys before and after interaction, LLM-generated scores on conversation, and user decisions (purchase or non-purchase).

arxiv情報

著者 Ganesh Prasath Ramani,Shirish Karande,Santhosh V,Yash Bhatia
発行日 2024-09-02 02:30:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL パーマリンク