Adaptive Whole-body Robotic Tool-use Learning on Low-rigidity Plastic-made Humanoids Using Vision and Tactile Sensors

要約

これまでにさまざまなロボットが開発されてきました。
ただし、一部のロボットの低剛性ボディをモデル化する際には課題に直面しています。
特に、工具使用中は物体を掴むことにより本体のたわみが変化し、工具先端位置や本体重心が大きく変動します。
さらに、このたわみは工具の重量と長さに​​応じて変化するため、これらのモデルは非常に複雑になります。
しかし、現時点では、これらの影響をすべて考慮した制御または学習方法はありません。
本研究では、足からの関節角度、視覚情報、触覚情報の相互関係を記述するニューラルネットワークを構築する手法を提案する。
このネットワークを実際のロボットデータを使用して学習させ、ツールチップ制御に活用することを目指しています。
さらに、パラメトリックバイアスを用いることで工具の重さや長さの変化による相互関係の変化を捉え、現在のセンサー情報から把握した工具の特性を把握することが可能です。
この手法を低剛性プラスチック製人型ロボット「KXR」の全身工具使用に適用し、その有効性を検証します。

要約(オリジナル)

Various robots have been developed so far; however, we face challenges in modeling the low-rigidity bodies of some robots. In particular, the deflection of the body changes during tool-use due to object grasping, resulting in significant shifts in the tool-tip position and the body’s center of gravity. Moreover, this deflection varies depending on the weight and length of the tool, making these models exceptionally complex. However, there is currently no control or learning method that takes all of these effects into account. In this study, we propose a method for constructing a neural network that describes the mutual relationship among joint angle, visual information, and tactile information from the feet. We aim to train this network using the actual robot data and utilize it for tool-tip control. Additionally, we employ Parametric Bias to capture changes in this mutual relationship caused by variations in the weight and length of tools, enabling us to understand the characteristics of the grasped tool from the current sensor information. We apply this approach to the whole-body tool-use on KXR, a low-rigidity plastic-made humanoid robot, to validate its effectiveness.

arxiv情報

著者 Kento Kawaharazuka,Kei Okada,Masayuki Inaba
発行日 2024-05-08 05:51:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク