Improving Proactive Dialog Agents Using Socially-Aware Reinforcement Learning

要約

インテリジェントな対話エージェントの次のステップは、沈黙の傍観者としての役割を逃れ、積極的になることです。
エージェントが対話中により積極的な役割を果たし、ユーザーの責任を負わないため、明確に定義されたプロアクティブな動作により、人間と機械の協力が向上する可能性があります。
ただし、事前のアクションが不十分に実行されると、タスクの結果だけでなくユーザーとの関係にも壊滅的な影響を与える可能性があるため、積極性は諸刃の剣です。
適切なプロアクティブな対話戦略を設計するために、対話にソーシャル機能とタスク関連機能の両方を含む新しいアプローチを提案します。
ここでの主な目標は、プロアクティブな行動をタスク指向になるように最適化することです。これは、タスクの高い成功と効率を意味します。また、ユーザーの信頼を育むことで社会的に効果的でもあります。
強化学習を使用してプロアクティブな対話エージェントをトレーニングするための報酬関数に両方の側面を含めることで、人間と機械の協力をより成功させるためのアプローチの利点が示されました。

要約(オリジナル)

The next step for intelligent dialog agents is to escape their role as silent bystanders and become proactive. Well-defined proactive behavior may improve human-machine cooperation, as the agent takes a more active role during interaction and takes off responsibility from the user. However, proactivity is a double-edged sword because poorly executed pre-emptive actions may have a devastating effect not only on the task outcome but also on the relationship with the user. For designing adequate proactive dialog strategies, we propose a novel approach including both social as well as task-relevant features in the dialog. Here, the primary goal is to optimize proactive behavior so that it is task-oriented – this implies high task success and efficiency – while also being socially effective by fostering user trust. Including both aspects in the reward function for training a proactive dialog agent using reinforcement learning showed the benefit of our approach for more successful human-machine cooperation.

arxiv情報

著者 Matthias Kraus,Nicolas Wagner,Ron Riekenbrauck,Wolfgang Minker
発行日 2023-06-22 08:55:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.HC, cs.LG パーマリンク