Back to Newton’s Laws: Learning Vision-based Agile Flight via Differentiable Physics

要約

乱雑な環境での群れのナビゲーションは、ロボット工学における大きな課題です。
この研究では、微分可能なシミュレーションを通じて深層学習と第一原理物理学を組み合わせ、複雑な環境を高速で複数の航空機ロボットが自律航行できるようにします。
私たちのアプローチは、単純な点質量物理モデルと深度レンダリング エンジンを使用したロボット シミュレーションを通じて損失勾配を逆伝播することにより、ニューラル ネットワーク制御ポリシーを直接最適化します。
この単純さにも関わらず、私たちの方法は、ゼロショット sim-to-real 転送により、マルチエージェント アプリケーションとシングル エージェント アプリケーションの両方の困難なタスクに優れています。
マルチエージェントのシナリオでは、当社のシステムは自己組織化された動作を示し、コミュニケーションや一元的な計画を必要とせずに自律的な調整を可能にします。これは、既存の従来の方法や学習ベースの方法では見られない成果です。
単一エージェントのシナリオでは、当社のシステムは複雑な環境をナビゲートする成功率 90% を達成し、以前の最先端のアプローチの成功率 60% を大幅に上回りました。
私たちのシステムは状態推定なしで動作し、動的障害物に適応できます。
現実世界の森林環境では、最大 20 m/s の速度で移動し、これまでの模倣学習ベースのソリューションの速度を 2 倍にします。
注目すべき点は、これらすべての機能が予算に優しい 21 ドルのコンピューターに導入されており、コストは既存のシステムで使用されている GPU 搭載ボードの 5% 未満です。
ビデオデモは https://youtu.be/LKg9hJqc2cc でご覧いただけます。

要約(オリジナル)

Swarm navigation in cluttered environments is a grand challenge in robotics. This work combines deep learning with first-principle physics through differentiable simulation to enable autonomous navigation of multiple aerial robots through complex environments at high speed. Our approach optimizes a neural network control policy directly by backpropagating loss gradients through the robot simulation using a simple point-mass physics model and a depth rendering engine. Despite this simplicity, our method excels in challenging tasks for both multi-agent and single-agent applications with zero-shot sim-to-real transfer. In multi-agent scenarios, our system demonstrates self-organized behavior, enabling autonomous coordination without communication or centralized planning – an achievement not seen in existing traditional or learning-based methods. In single-agent scenarios, our system achieves a 90% success rate in navigating through complex environments, significantly surpassing the 60% success rate of the previous state-of-the-art approach. Our system can operate without state estimation and adapt to dynamic obstacles. In real-world forest environments, it navigates at speeds up to 20 m/s, doubling the speed of previous imitation learning-based solutions. Notably, all these capabilities are deployed on a budget-friendly $21 computer, costing less than 5% of a GPU-equipped board used in existing systems. Video demonstrations are available at https://youtu.be/LKg9hJqc2cc.

arxiv情報

著者 Yuang Zhang,Yu Hu,Yunlong Song,Danping Zhou,Weiyao Lin
発行日 2024-07-15 12:08:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク