要約
将来の宇宙船や地上ロボットのミッションでは、困難で構造化されていない領域を探索するための、ますます高機能な自律スタックが必要であり、軌道の最適化はそのような自律スタックの基礎となります。
ただし、必要な非線形最適化ソルバーは、リソースに比較的制約のあるフライトグレードのコンピューターで使用するには依然として遅すぎます。
この研究では、最適化の実行時間を高速化するための学習ベースの手法である償却最適化に目を向け、TOAST: メリット関数ウォーム スタートによる軌道最適化を紹介します。
オフラインでは、シミュレーションから収集したデータを使用して、ニューラル ネットワークをトレーニングして、問題パラメーターが与えられた完全な主解と双対解へのマッピングを学習します。
重要なのは、意思決定に焦点を当てた学習からの最近の結果に基づいて、最適化問題のメリット関数の概念を使用して意思決定に焦点を当てた一連の損失関数を提示することです。
このような制約情報に基づく損失を伴うトレーニング ネットワークは、軌道最適化問題の構造をより適切にエンコードし、主双対解を再構築する方法を共同で学習しながら、制約満足度も改善できることを示します。
月面探査機の問題に関する数値実験を通じて、計算時間とネットワーク予測制約満足度の両方の点で TOAST がベンチマーク アプローチよりも優れていることを実証しました。
要約(オリジナル)
Future spacecraft and surface robotic missions require increasingly capable autonomy stacks for exploring challenging and unstructured domains and trajectory optimization will be a cornerstone of such autonomy stacks. However, the nonlinear optimization solvers required remain too slow for use on relatively resource constrained flight-grade computers. In this work, we turn towards amortized optimization, a learning-based technique for accelerating optimization run times, and present TOAST: Trajectory Optimization with Merit Function Warm Starts. Offline, using data collected from a simulation, we train a neural network to learn a mapping to the full primal and dual solutions given the problem parameters. Crucially, we build upon recent results from decision-focused learning and present a set of decision-focused loss functions using the notion of merit functions for optimization problems. We show that training networks with such constraint-informed losses can better encode the structure of the trajectory optimization problem and jointly learn to reconstruct the primal-dual solution while also yielding improved constraint satisfaction. Through numerical experiments on a Lunar rover problem, we demonstrate that TOAST outperforms benchmark approaches in terms of both computation times and network prediction constraint satisfaction.
arxiv情報
著者 | Julia Briden,Changrak Choi,Kyongsik Yun,Richard Linares,Abhishek Cauligi |
発行日 | 2023-12-21 23:43:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google