Offline Deep Model Predictive Control (MPC) for Visual Navigation

要約

この論文では、単一の RGB 視点カメラに基づく新しい視覚ナビゲーション方法を提案します。
ビジュアル ティーチ アンド リピート (VT&R) 手法を使用して、ロボットはティーチング ステップで複数のサブゴール画像で構成される視覚的な軌道を取得します。
繰り返しのステップでは、ViewNet と VelocityNet という 2 つのネットワーク アーキテクチャを提案します。
2 つのネットワークを組み合わせることで、ロボットは視覚的な軌跡をたどることができます。
ViewNet は、現在のビューと速度コマンドに基づいて将来の画像を生成するようにトレーニングされています。
生成された将来画像は、VelocityNet をトレーニングするためのサブゴール画像と結合されます。
私たちは、(1) 現在の画像とサブゴール画像の差を減らすこと、(2) 速度の不連続性を緩和することで滑らかな軌道を確保すること、という 2 つの目標を掲げて、VelocityNet 内でオフライン モデル予測制御 (MPC) ポリシーを開発します。
オフライン トレーニングでは計算リソースが節約されるため、組み込みシステムなどの計算能力が限られたシナリオにより適したオプションになります。
シミュレーション環境で実験を検証し、モデルが実際の軌道と再生された軌道の間の計量誤差を効果的に最小化できることを実証します。

要約(オリジナル)

In this paper, we propose a new visual navigation method based on a single RGB perspective camera. Using the Visual Teach & Repeat (VT&R) methodology, the robot acquires a visual trajectory consisting of multiple subgoal images in the teaching step. In the repeat step, we propose two network architectures, namely ViewNet and VelocityNet. The combination of the two networks allows the robot to follow the visual trajectory. ViewNet is trained to generate a future image based on the current view and the velocity command. The generated future image is combined with the subgoal image for training VelocityNet. We develop an offline Model Predictive Control (MPC) policy within VelocityNet with the dual goals of (1) reducing the difference between current and subgoal images and (2) ensuring smooth trajectories by mitigating velocity discontinuities. Offline training conserves computational resources, making it a more suitable option for scenarios with limited computational capabilities, such as embedded systems. We validate our experiments in a simulation environment, demonstrating that our model can effectively minimize the metric error between real and played trajectories.

arxiv情報

著者 Taha Bouzid,Youssef Alj
発行日 2024-02-07 12:38:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク