Deep Learning for Optimization of Trajectories for Quadrotors

要約

本稿では、モデルベースの最適化技術とディープラーニングを組み合わせた、クワッドローターのための新しい学習ベースの軌道計画フレームワークを紹介する。具体的には、軌道最適化問題を、安全な飛行コリドー[1]を通る区分的軌道セグメントを用いた、動的かつ無衝突の制約を持つ二次計画(QP)問題として定式化する。我々は、最適な滑らかで高速な軌道を生成するために、各セグメントに対する時間配分を直接学習するニューラルネットワークを訓練する。さらに、制約付き最適化問題は、ネットワーク内のバックプロパゲーションのための独立した暗黙層として適用され、微分損失関数を得ることができる。我々は、訓練プロセスを加速し、元の最適化問題の成功率を向上させるために、制約に違反する解をもたらす時間配分にペナルティを課す追加ペナルティ関数を導入する。この目的のため、学習中に文末トークンを追加することで、断片的な軌跡のシーケンスの柔軟な数を可能にする。広範なシミュレーションと実験により提案手法の性能を説明し、多様で乱雑な環境においてリアルタイムで機能することを示す。

要約(オリジナル)

This paper presents a novel learning-based trajectory planning framework for quadrotors that combines model-based optimization techniques with deep learning. Specifically, we formulate the trajectory optimization problem as a quadratic programming (QP) problem with dynamic and collision-free constraints using piecewise trajectory segments through safe flight corridors [1]. We train neural networks to directly learn the time allocation for each segment to generate optimal smooth and fast trajectories. Furthermore, the constrained optimization problem is applied as a separate implicit layer for backpropagation in the network, for which the differential loss function can be obtained. We introduce an additional penalty function to penalize time allocations which result in solutions that violate the constraints to accelerate the training process and increase the success rate of the original optimization problem. To this end, we enable a flexible number of sequences of piece-wise trajectories by adding an extra end-of-sentence token during training. We illustrate the performance of the proposed method via extensive simulation and experimentation and show that it works in real time in diverse, cluttered environments.

arxiv情報

著者 Yuwei Wu,Xiatao Sun,Igor Spasojevic,Vijay Kumar
発行日 2023-12-03 20:47:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO パーマリンク