要約
協働ロボットは、スムーズなインタラクションを可能にするために、その内部状態を人間に効果的に伝達する必要があります。
非言語コミュニケーションは、人間とロボットの対話中に情報を伝達するために広く使用されていますが、そのような方法も誤解され、コミュニケーションエラーにつながる可能性があります。
この研究では、ロボットの機能的な状態 (達成、進歩、行き詰まり) を伝えるために、非言語聴覚表現の音響パラメータ値 (ピッチ ベンド、1 分あたりの拍数、ループあたりの拍数) を変調することを検討します。
我々は、正確に解釈された非言語聴覚表現を生成するために、ノイズを含む人間のフィードバックに基づいた強化学習 (RL) アルゴリズムを提案します。
提案されたアプローチは、24 人の参加者によるユーザー調査を通じて評価されました。
結果は次のことを示しています。 1. 私たちが提案する RL ベースのアプローチは、ロボットの状態を正確に識別するユーザーの能力を向上させる適切な音響パラメータ値を学習できます。
2. 以前のユーザーデータによって通知されたアルゴリズムの初期化を使用して、学習プロセスを大幅にスピードアップできます。
3. アルゴリズムの初期化に使用される方法は、ロボットの各状態で参加者が類似した音に収束するかどうかに強く影響します。
4. ピッチベンドのモジュレーションは、サウンドとロボットの状態との間のユーザーの関連付けに最も大きな影響を与えます。
要約(オリジナル)
Collaborative robots must effectively communicate their internal state to humans to enable a smooth interaction. Nonverbal communication is widely used to communicate information during human-robot interaction, however, such methods may also be misunderstood, leading to communication errors. In this work, we explore modulating the acoustic parameter values (pitch bend, beats per minute, beats per loop) of nonverbal auditory expressions to convey functional robot states (accomplished, progressing, stuck). We propose a reinforcement learning (RL) algorithm based on noisy human feedback to produce accurately interpreted nonverbal auditory expressions. The proposed approach was evaluated through a user study with 24 participants. The results demonstrate that: 1. Our proposed RL-based approach is able to learn suitable acoustic parameter values which improve the users’ ability to correctly identify the state of the robot. 2. Algorithm initialization informed by previous user data can be used to significantly speed up the learning process. 3. The method used for algorithm initialization strongly influences whether participants converge to similar sounds for each robot state. 4. Modulation of pitch bend has the largest influence on user association between sounds and robotic states.
arxiv情報
著者 | Liam Roy,Dana Kulic,Elizabeth Croft |
発行日 | 2024-04-30 04:18:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google