要約
社会的ロボットの動作のエンドユーザーによるプログラミングは、通常、あらかじめ定義された一連の動作によって制限されている。我々は、より直感的な方法でロボットの表情豊かな動きをプログラミングできる人形ロボットインターフェースを提案している。ユーザがロボットの人形を操作すると、実際のロボットがその動きを再現し、リアルタイムの視覚的フィードバックを提供する。このインタフェースにより、限られたトレーニングしか受けていない初心者ユーザでも、表情豊かな動きを効率的に設計・プログラミングすることができる。この拡張アブストラクトでは、予備的なユーザ研究の結果を示す。
要約(オリジナル)
The end-user programming of social robot behavior is usually limited by a predefined set of movements. We are proposing a puppeteering robotic interface that provides a more intuitive method of programming robot expressive movements. As the user manipulates the puppet of a robot, the actual robot replicates the movements, providing real-time visual feedback. Through this proposed interface, even with limited training, a novice user can design and program expressive movements efficiently. We present our preliminary user study results in this extended abstract.
arxiv情報
著者 | Hongyu Wang,Nikolas Martelaro |
発行日 | 2023-12-03 22:13:38+00:00 |
arxivサイト | arxiv_id(pdf) |