要約
GPU 上で大規模に並列化できるタスク アンド モーション プランニング (TAMP) 用の微分可能な最適化ベースのフレームワークを紹介します。これにより、数千のサンプリングされたシードを同時に最適化できます。
既存のサンプリングベースのアプローチは、それぞれ独立してサンプルを生成し、合成と拒否を通じてそれらを組み合わせることで本質的にパラメータを切り離しますが、最適化ベースの方法は高度に非凸の制約と局所最適化に苦労します。
私たちの方法では、TAMP 制約を満たすことをパーティクルのバッチを最適化するものとして扱い、各パーティクルはプラン スケルトンの連続パラメータへの割り当てを表します。
微分可能なコスト関数を使用して計画スケルトンの制約を表現し、各粒子の勾配を計算し、満足のいく解決策に向けて更新できるようにします。
GPU 並列処理を使用すると、スケールを通じてパラメーター空間をより適切にカバーできるようになり、グローバル サンプリングを通じて複数の盆地を探索することで、グローバルな最適値を見つける可能性が高まります。
私たちは、フランカ アームをシミュレーションで使用し、プランナーを実際のロボット アームに展開することにより、アルゴリズムが高度に制約されたテトリスのパッキング問題を効果的に解決できることを実証します。
ウェブサイト: https://williamshen-nz.github.io/gpu-tamp
要約(オリジナル)
We present a differentiable optimization-based framework for Task and Motion Planning (TAMP) that is massively parallelizable on GPUs, enabling thousands of sampled seeds to be optimized simultaneously. Existing sampling-based approaches inherently disconnect the parameters by generating samples for each independently and combining them through composition and rejection, while optimization-based methods struggle with highly non-convex constraints and local optima. Our method treats TAMP constraint satisfaction as optimizing a batch of particles, each representing an assignment to a plan skeleton’s continuous parameters. We represent the plan skeleton’s constraints using differentiable cost functions, enabling us to compute the gradient of each particle and update it toward satisfying solutions. Our use of GPU parallelism better covers the parameter space through scale, increasing the likelihood of finding the global optima by exploring multiple basins through global sampling. We demonstrate that our algorithm can effectively solve a highly constrained Tetris packing problem using a Franka arm in simulation and deploy our planner on a real robot arm. Website: https://williamshen-nz.github.io/gpu-tamp
arxiv情報
著者 | William Shen,Caelan Garrett,Ankit Goyal,Tucker Hermans,Fabio Ramos |
発行日 | 2024-11-18 18:51:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google