要約
本研究では、日本の大規模な人間とロボットの対話コーパスにおいて、遠隔操作ロボットと自律対話システムの対話を比較し、ユーザの行動の違いを調べた。我々は、注意深い傾聴と就職面接の両方の対話シナリオにおけるユーザの発話行動を分析した。その結果、発話長、発話速度、フィラー、バックチャネル、不自由、笑いなどの指標において、オペレータ制御の場合と自律的な場合とで有意な違いがあることが明らかになった。さらに、オペレータと自律システムの状態を区別する予測モデルを開発した。我々のモデルはベースラインモデルと比較して高い精度と正確性を示し、いくつかのモデルはベースラインモデルよりも高いF1スコアを達成した。
要約(オリジナル)
This study examined users’ behavioral differences in a large corpus of Japanese human-robot interactions, comparing interactions between a tele-operated robot and an autonomous dialogue system. We analyzed user spoken behaviors in both attentive listening and job interview dialogue scenarios. Results revealed significant differences in metrics such as speech length, speaking rate, fillers, backchannels, disfluencies, and laughter between operator-controlled and autonomous conditions. Furthermore, we developed predictive models to distinguish between operator and autonomous system conditions. Our models demonstrated higher accuracy and precision compared to the baseline model, with several models also achieving a higher F1 score than the baseline.
arxiv情報
著者 | Mikey Elmers,Koji Inoue,Divesh Lala,Keiko Ochi,Tatsuya Kawahara |
発行日 | 2024-10-04 05:07:55+00:00 |
arxivサイト | arxiv_id(pdf) |