Body Gesture Recognition to Control a Social Robot

要約

この作品では、人間が自然な方法で自分の体を使ってロボットと対話できるようにするジェスチャーベースの言語を提案します。
ニューラルネットワークと一連のボディジェスチャを実行してネットワークをトレーニングする人間のカスタムデータセットを使用して、新しいジェスチャ検出モデルを作成しました。
さらに、身体ジェスチャー通信を他の通信チャネルと比較して、この知識をロボットに追加することの重要性を認識しています。
提示されたアプローチは、訓練を受けていないボランティアによる多様なシミュレーションと実際の実験で広く検証されています。
これは驚くべき結果を達成し、ヒューマンロボットコラボレーションやヒューマンロボットインタラクションなどのソーシャルロボティクスアプリケーションにとって価値のあるフレームワークであることを示しています。

要約(オリジナル)

In this work, we propose a gesture based language to allow humans to interact with robots using their body in a natural way. We have created a new gesture detection model using neural networks and a custom dataset of humans performing a set of body gestures to train our network. Furthermore, we compare body gesture communication with other communication channels to acknowledge the importance of adding this knowledge to robots. The presented approach is extensively validated in diverse simulations and real-life experiments with non-trained volunteers. This attains remarkable results and shows that it is a valuable framework for social robotics applications, such as human robot collaboration or human-robot interaction.

arxiv情報

著者 Javier Laplaza,Joan Jaume Oliver,Ramón Romero,Alberto Sanfeliu,Anaís Garrell
発行日 2022-06-15 13:49:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.DB, cs.HC, cs.LG, cs.RO パーマリンク