要約
頭の動きは、人間と人間の社会的な相互作用にとって非常に重要です。
言葉による対話だけでは達成できない重要な合図(共同注意、話者の検出など)を送信できます。
この利点は人間とロボットの対話にも当てはまります。
生成 AI モデルによる人間の動きのモデリングは、近年ロボット工学の分野で活発な研究分野となっていますが、人間とロボットの相互作用において頭部の動きを生成するためのこれらの方法の使用は、依然として十分に研究されていません。
この作業では、生成 AI パイプラインを使用して、Nao ヒューマノイド ロボットの人間のような頭の動きを生成しました。
さらに、グループ会話設定でのリアルタイムのアクティブ話者追跡タスクでシステムをテストしました。
全体として、結果は、Nao ロボットが会話中に話者を積極的に追跡しながら、人間の頭の動きを自然な方法でうまく模倣していることを示しています。
この研究のコードとデータは、https://github.com/dingdingding60/Humanoids2024HRI で入手できます。
要約(オリジナル)
Head movements are crucial for social human-human interaction. They can transmit important cues (e.g., joint attention, speaker detection) that cannot be achieved with verbal interaction alone. This advantage also holds for human-robot interaction. Even though modeling human motions through generative AI models has become an active research area within robotics in recent years, the use of these methods for producing head movements in human-robot interaction remains underexplored. In this work, we employed a generative AI pipeline to produce human-like head movements for a Nao humanoid robot. In addition, we tested the system on a real-time active-speaker tracking task in a group conversation setting. Overall, the results show that the Nao robot successfully imitates human head movements in a natural manner while actively tracking the speakers during the conversation. Code and data from this study are available at https://github.com/dingdingding60/Humanoids2024HRI
arxiv情報
著者 | Bosong Ding,Murat Kirtay,Giacomo Spigler |
発行日 | 2024-07-16 17:08:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google