要約
DMP は、その汎用性と堅牢性の特性により、さまざまなロボット タスクに広く適用されています。
ただし、特定のタスクを正常に実行するには、初期位置とターゲット位置だけでなく、シーンの全体的な構造とレイアウトに関連する特徴も考慮した、さまざまなモーション パターンの使用が必要になる場合があります。
DMP をより広範囲のタスクに適用し、その使用をさらに自動化するために、深層残差ネットワークと DMP を組み合わせたフレームワークを設計します。これは、RGB イメージ プレーン上で人間によるデモンストレーションを通じて提供される、平面タスクのさまざまな動作パターンをカプセル化できます。
その後、新しい未加工の RGB ビジュアル入力から、適切な DMP パラメータ、つまり動作パターンと初期/ターゲット位置を決定する重みを自動的に推測できます。
画像から DMP を推論するための別の SoA メソッドと私たちのメソッドを比較し、2 つの異なる平面タスクで実験的検証を実行します。
要約(オリジナル)
DMP have been extensively applied in various robotic tasks thanks to their generalization and robustness properties. However, the successful execution of a given task may necessitate the use of different motion patterns that take into account not only the initial and target position but also features relating to the overall structure and layout of the scene. To make DMP applicable to a wider range of tasks and further automate their use, we design a framework combining deep residual networks with DMP, that can encapsulate different motion patterns of a planar task, provided through human demonstrations on the RGB image plane. We can then automatically infer from new raw RGB visual input the appropriate DMP parameters, i.e. the weights that determine the motion pattern and the initial/target positions. We compare our method against another SoA method for inferring DMP from images and carry out experimental validations in two different planar tasks.
arxiv情報
著者 | Antonis Sidiropoulos,Zoe Doulgeri |
発行日 | 2024-01-17 10:14:42+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google