要約
砂の斜面での脚式ロボットの移動は、粒状媒体の複雑な力学と、固体表面の欠如が移動の妨げとなる可能性があるため、困難です。
オバケガニや自然界の他の生物からヒントを得た有望な戦略は、岩、瓦礫、その他の障害物と戦略的に相互作用して移動を促進することです。
脚式ロボットにこの機能を提供するために、雪崩力学を利用して粒度の高い斜面上の物体を間接的に操作する新しいアプローチを提案します。
ビジョン トランスフォーマー (ViT) を使用して、粒度の高いダイナミクスとロボットの掘削アクションの画像表現を処理します。
ViT はオブジェクトの動きを予測し、それを使用してどの脚の掘削アクションを実行するかを決定します。
私たちは 100 回の実際の物理試験からトレーニング データを収集し、テスト時にトレーニング済みのモデルを新しい設定に展開します。
実験結果は、私たちのモデルが物体の動きを正確に予測し、最大 4 つの障害物を伴うさまざまな操作タスクで成功率 $\geq 80\%$ を達成でき、また、異なる物理特性を持つ物体にも一般化できることを示唆しています。
私たちの知る限り、これは粒状媒体雪崩ダイナミクスを利用して粒状斜面上のオブジェクトを間接的に操作する最初の論文です。
補足資料は https://sites.google.com/view/gran-corl2024/home で入手できます。
要約(オリジナル)
Legged robot locomotion on sand slopes is challenging due to the complex dynamics of granular media and how the lack of solid surfaces can hinder locomotion. A promising strategy, inspired by ghost crabs and other organisms in nature, is to strategically interact with rocks, debris, and other obstacles to facilitate movement. To provide legged robots with this ability, we present a novel approach that leverages avalanche dynamics to indirectly manipulate objects on a granular slope. We use a Vision Transformer (ViT) to process image representations of granular dynamics and robot excavation actions. The ViT predicts object movement, which we use to determine which leg excavation action to execute. We collect training data from 100 real physical trials and, at test time, deploy our trained model in novel settings. Experimental results suggest that our model can accurately predict object movements and achieve a success rate $\geq 80\%$ in a variety of manipulation tasks with up to four obstacles, and can also generalize to objects with different physics properties. To our knowledge, this is the first paper to leverage granular media avalanche dynamics to indirectly manipulate objects on granular slopes. Supplementary material is available at https://sites.google.com/view/grain-corl2024/home.
arxiv情報
著者 | Haodi Hu,Feifei Qian,Daniel Seita |
発行日 | 2024-10-14 05:36:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google