要約
大規模言語モデル (LLM) は、人間のようなテキストを理解して生成できる強力なツールとして登場しました。
この論文では、人間の視点を形成し、その後特定のタスクに関する意思決定に影響を与える LLM の可能性を探ります。
この機能は、投資、クレジット カード、保険などのさまざまな分野でアプリケーションが見つかり、ユーザーが適切な保険契約、投資計画、クレジット カード、小売りを選択するのに役立つだけでなく、行動変容支援システム (BCSS) でも役立ちます。
私たちは、エージェントのコンソーシアムが協力して動作する、洗練されたマルチエージェント フレームワークを提案します。
主要エージェントは説得的な対話を通じてユーザーと直接対話し、補助エージェントは情報検索、応答分析、説得戦略の開発、事実の検証などのタスクを実行します。
私たちの実験による経験的証拠は、この協力的な方法論が LLM の説得効果を大幅に高めることを示しています。
私たちは、説得努力に対するユーザーの抵抗を継続的に分析し、ルールベースと LLM ベースの抵抗と説得のマッピング手法を組み合わせて採用することで、それに対抗します。
当社は、保険、銀行、小売の分野でシミュレートされたペルソナを使用して会話を生成し、さまざまな性格タイプを認識し、調整し、影響を与える大規模言語モデル (LLM) の習熟度を評価します。
同時に、LLM でシミュレートされたペルソナが採用する抵抗メカニズムを調べます。
説得は、インタラクションの前後の測定可能な調査、LLM が生成した会話のスコア、およびユーザーの決定 (購入または非購入) によって定量化されます。
要約(オリジナル)
Large Language Models (LLMs) have emerged as formidable instruments capable of comprehending and producing human-like text. This paper explores the potential of LLMs, to shape human perspectives and subsequently influence their decisions on particular tasks. This capability finds applications in diverse domains such as Investment, Credit cards and Insurance, wherein they assist users in selecting appropriate insurance policies, investment plans, Credit cards, Retail, as well as in Behavioral Change Support Systems (BCSS). We present a sophisticated multi-agent framework wherein a consortium of agents operate in collaborative manner. The primary agent engages directly with users through persuasive dialogue, while the auxiliary agents perform tasks such as information retrieval, response analysis, development of persuasion strategies, and validation of facts. Empirical evidence from our experiments demonstrates that this collaborative methodology significantly enhances the persuasive efficacy of the LLM. We analyze user resistance to persuasive efforts continuously and counteract it by employing a combination of rule-based and LLM-based resistance-persuasion mapping techniques. We employ simulated personas and generate conversations in insurance, banking, and retail domains to evaluate the proficiency of large language models (LLMs) in recognizing, adjusting to, and influencing various personality types. Concurrently, we examine the resistance mechanisms employed by LLM simulated personas. Persuasion is quantified via measurable surveys before and after interaction, LLM-generated scores on conversation, and user decisions (purchase or non-purchase).
arxiv情報
著者 | Ganesh Prasath Ramani,Shirish Karande,Santhosh V,Yash Bhatia |
発行日 | 2024-08-28 15:50:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google