要約
DMPは、その汎用性とロバスト性により、様々なロボットタスクに広く適用されている。しかし、あるタスクを成功させるためには、初期位置や目標位置だけでなく、シーン全体の構造やレイアウトに関連する特徴を考慮した、異なる動作パターンを使用する必要がある場合があります。本研究では、DMPをより多くのタスクに適用し、その利用をさらに自動化するために、深層残差ネットワークとDMPを組み合わせたフレームワークを設計し、RGB画像平面上での人間の実演から得られる平面タスクの異なる運動パターンをカプセル化することができます。このフレームワークでは、RGB画像上の人間の実演から得られる平面タスクの様々な動作パターンをカプセル化し、新しいRGB画像入力から適切なDMPパラメータ(動作パターンと初期/目標位置を決定する重み)を自動的に推論することができる。本手法は、モックアップのブドウの木を用いて、葉が隠れているブドウの房の茎を明らかにするタスクで実験的に検証し、画像からDMPを推論する他のSoA手法と比較する。
要約(オリジナル)
DMP have been extensively applied in various robotic tasks thanks to their generalization and robustness properties. However, the successful execution of a given task may necessitate the use of different motion patterns that take into account not only the initial and target position but also features relating to the overall structure and layout of the scene. To make DMP applicable in wider range of tasks and further automate their use, we design in this work a framework combining deep residual networks with DMP, that can encapsulate different motion patterns of a planar task, provided through human demonstrations on the RGB image plane. We can then automatically infer from new raw RGB visual input the appropriate DMP parameters, i.e. the weights that determine the motion pattern and the initial/target positions. We experimentally validate our method in the task of unveiling the stem of a grape-bunch from occluding leaves using on a mock-up vine setup and compare it to another SoA method for inferring DMP from images.
arxiv情報
著者 | Antonis Sidiropoulos,Zoe Doulgeri |
発行日 | 2023-03-06 15:02:45+00:00 |
arxivサイト | arxiv_id(pdf) |