要約
ロボット工学における軌道計画は、確実に実行できる衝突のないポーズ シーケンスを生成することを目的としています。
最近、ビジョンから計画までを実現するシステムは、その効率性と周囲の環境を解釈して適応する能力によりますます注目を集めています。
ただし、従来のモジュール式システムでは遅延の増加とエラーの伝播という問題が発生し、純粋にデータ駆動型のアプローチではロボットの運動学的制約を見落とすことがよくあります。
この見落としにより、計画された軌道と実行可能な軌道との間に不一致が生じます。
これらの課題に対処するために、ロボットの運動学モデルを学習パイプラインに直接統合する新しいビジョンから計画までのシステムである iKap を提案します。
iKap は自己教師あり学習アプローチを採用し、微分可能な 2 レベルの最適化フレームワーク内に状態遷移モデルを組み込みます。
この統合により、ネットワークは運動学的制約を満たしながら衝突のないウェイポイントを学習することが保証され、エンドツーエンドのトレーニングで勾配逆伝播が可能になります。
私たちの実験結果は、iKap が最先端の方法と比較して高い成功率と待ち時間の短縮を達成することを示しています。
iKap は、完全なシステムに加えて、運動学をさまざまなコントローラーにシームレスに統合するビジュアルからプランニングまでのネットワークを提供し、複雑で動的な環境をナビゲートするロボットに堅牢なソリューションを提供します。
要約(オリジナル)
Trajectory planning in robotics aims to generate collision-free pose sequences that can be reliably executed. Recently, vision-to-planning systems have garnered increasing attention for their efficiency and ability to interpret and adapt to surrounding environments. However, traditional modular systems suffer from increased latency and error propagation, while purely data-driven approaches often overlook the robot’s kinematic constraints. This oversight leads to discrepancies between planned trajectories and those that are executable. To address these challenges, we propose iKap, a novel vision-to-planning system that integrates the robot’s kinematic model directly into the learning pipeline. iKap employs a self-supervised learning approach and incorporates the state transition model within a differentiable bi-level optimization framework. This integration ensures the network learns collision-free waypoints while satisfying kinematic constraints, enabling gradient back-propagation for end-to-end training. Our experimental results demonstrate that iKap achieves higher success rates and reduced latency compared to the state-of-the-art methods. Besides the complete system, iKap offers a visual-to-planning network that seamlessly integrates kinematics into various controllers, providing a robust solution for robots navigating complex and dynamic environments.
arxiv情報
著者 | Qihang Li,Zhuoqun Chen,Haoze Zheng,Haonan He,Shaoshu Su,Junyi Geng,Chen Wang |
発行日 | 2024-12-12 17:43:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google