Grasping Trajectory Optimization with Point Clouds

要約

ロボットと作業空間の点群表現に基づいたロボットによる把持のための新しい軌道最適化手法を紹介します。
私たちの方法では、ロボットはリンク表面上の 3D 点によって表されます。
ロボットの作業空間は、深度センサーから取得できる点群で表されます。
点群表現を使用すると、把握における目標到達は点マッチングとして定式化でき、衝突回避は、シーン ポイントの符号付き距離フィールド内のロボット ポイントの符号付き距離値をクエリすることによって効率的に達成できます。
したがって、関節運動および把握計画問題を解決するために、制約付き非線形最適化問題が定式化されます。
私たちの方法の利点は、点群表現があらゆる環境のあらゆるロボットで使用できる一般的なことです。
Fetch モバイル マニピュレータと Franka Panda アームを使用して掴むためのテーブルトップ シーンと棚シーンで実験を実行することにより、この方法の有効性を実証します。
プロジェクト ページは \url{https://irvlutd.github.io/GraspTrajOpt} から入手できます。

要約(オリジナル)

We introduce a new trajectory optimization method for robotic grasping based on a point-cloud representation of robots and task spaces. In our method, robots are represented by 3D points on their link surfaces. The task space of a robot is represented by a point cloud that can be obtained from depth sensors. Using the point-cloud representation, goal reaching in grasping can be formulated as point matching, while collision avoidance can be efficiently achieved by querying the signed distance values of the robot points in the signed distance field of the scene points. Consequently, a constrained nonlinear optimization problem is formulated to solve the joint motion and grasp planning problem. The advantage of our method is that the point-cloud representation is general to be used with any robot in any environment. We demonstrate the effectiveness of our method by performing experiments on a tabletop scene and a shelf scene for grasping with a Fetch mobile manipulator and a Franka Panda arm. The project page is available at \url{https://irvlutd.github.io/GraspTrajOpt}

arxiv情報

著者 Yu Xiang,Sai Haneesh Allu,Rohith Peddi,Tyler Summers,Vibhav Gogate
発行日 2024-08-07 20:33:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク