要約
最近の進歩により、身体的な支援や口頭による指導を通じて人間とロボットのコラボレーションが可能になりました。
しかし、協調的な接触タスク中の人間の行動のリアルタイムの変化に応じてロボットの物理的な動作と音声を調整することには依然として限界があります。
私たちはまず、患者の運動中の理学療法士の動きと発話を分析することから原則を導き出します。
これらの原則は、1) 軌道に沿ってユーザーをガイドする、2) さまざまなユーザーの協力に合わせて完了時間を調整するために動作と発話のペースを制御する、3) 軌道に沿って音声を動的に言い換えるという制御目標に変換されます。
次に、動きと音声を同期させ、ユーザーの協力に基づいて両方を調整する言語コントローラーを提案します。
12 人のユーザーを対象とした実験では、言語コントローラーがベースラインと比較して動きと音声をうまく調整できることがわかりました。
これにより、人間とロボットのスムーズなコラボレーションのためのフレームワークが提供されます。
要約(オリジナル)
Recent advancements have enabled human-robot collaboration through physical assistance and verbal guidance. However, limitations persist in coordinating robots’ physical motions and speech in response to real-time changes in human behavior during collaborative contact tasks. We first derive principles from analyzing physical therapists’ movements and speech during patient exercises. These principles are translated into control objectives to: 1) guide users through trajectories, 2) control motion and speech pace to align completion times with varying user cooperation, and 3) dynamically paraphrase speech along the trajectory. We then propose a Language Controller that synchronizes motion and speech, modulating both based on user cooperation. Experiments with 12 users show the Language Controller successfully aligns motion and speech compared to baselines. This provides a framework for fluent human-robot collaboration.
arxiv情報
著者 | Ravi Tejwani,Chengyuan Ma,Paco Gomez-Paz,Paolo Bonato,H. Harry Asada |
発行日 | 2023-10-10 02:14:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google