要約
【タイトル】
人工知能と人間の共同作業における統計的積極的対話モデリングのための信頼感意識型ユーザーシミュレータの開発
【要約】
– 人工知能(AI)と人間の「Human-AIチーム」が近年注目されている。
– しかし、人間支援を目的としたAIシステムに適切な積極性の設計は未だに開かれた問題となっている。
– 本論文は、積極性のある対話ポリシーのトレーニングとテストのためのコーパスベースのユーザーシミュレータの開発を提案する。
– このシミュレータは、積極的な対話とユーザーの信頼感に関する有識者の知識を取り入れ、ユーザーの行動や社会人口統計的特徴や性格特性などの個人情報をシミュレートしている。
– 2つのシミュレーションアプローチが比較され、タスクステップベースのアプローチがシーケンシャルな依存関係のモデリングが向上したため、全体的な結果が改善された。
– 人工知能と人間の共同作業の向上のため、適切な積極的戦略を対話ゲームの設定において探索・評価するための有望なアプローチを提供する研究である。
要約(オリジナル)
The concept of a Human-AI team has gained increasing attention in recent years. For effective collaboration between humans and AI teammates, proactivity is crucial for close coordination and effective communication. However, the design of adequate proactivity for AI-based systems to support humans is still an open question and a challenging topic. In this paper, we present the development of a corpus-based user simulator for training and testing proactive dialog policies. The simulator incorporates informed knowledge about proactive dialog and its effect on user trust and simulates user behavior and personal information, including socio-demographic features and personality traits. Two different simulation approaches were compared, and a task-step-based approach yielded better overall results due to enhanced modeling of sequential dependencies. This research presents a promising avenue for exploring and evaluating appropriate proactive strategies in a dialog game setting for improving Human-AI teams.
arxiv情報
著者 | Matthias Kraus,Ron Riekenbrauck,Wolfgang Minker |
発行日 | 2023-04-24 08:42:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI