Pair-VPR: Place-Aware Pre-training and Contrastive Pair Classification for Visual Place Recognition with Vision Transformers

要約

本研究では、視覚的場所認識(Visual Place Recognition: VPR)のために、グローバル記述子と再順位付けのためのペア分類器を同時に学習する、新しい共同学習法を提案する。ペア分類器は、与えられた画像のペアが同じ場所のものかどうかを予測することができる。このネットワークは、エンコーダとペア分類器のためのVision Transformerコンポーネントのみから構成され、両コンポーネントはそれぞれのクラス・トークンを用いて学習される。既存のVPR手法では、通常、ImageNetのような一般的な画像データセットから事前に訓練された重みを用いてネットワークを初期化する。本研究では、シャムマスク画像モデリングを事前学習タスクとして用いることで、代替的な事前学習戦略を提案する。本研究では、VPRに特化した視覚的特徴を学習するために、大規模なVPRデータセットから場所を意識した画像サンプリング手法を提案する。マスクイメージモデリングのエンコーダとデコーダの重みを第2段階の学習で再利用することで、Pair-VPRはViT-Bエンコーダを用いた5つのベンチマークデータセットで最先端のVPR性能を達成することができ、さらに大きなエンコーダを用いた場合にはローカライゼーションリコールがさらに向上する。Pair-VPRのウェブサイトはhttps://csiro-robotics.github.io/Pair-VPR。

要約(オリジナル)

In this work we propose a novel joint training method for Visual Place Recognition (VPR), which simultaneously learns a global descriptor and a pair classifier for re-ranking. The pair classifier can predict whether a given pair of images are from the same place or not. The network only comprises Vision Transformer components for both the encoder and the pair classifier, and both components are trained using their respective class tokens. In existing VPR methods, typically the network is initialized using pre-trained weights from a generic image dataset such as ImageNet. In this work we propose an alternative pre-training strategy, by using Siamese Masked Image Modelling as a pre-training task. We propose a Place-aware image sampling procedure from a collection of large VPR datasets for pre-training our model, to learn visual features tuned specifically for VPR. By re-using the Mask Image Modelling encoder and decoder weights in the second stage of training, Pair-VPR can achieve state-of-the-art VPR performance across five benchmark datasets with a ViT-B encoder, along with further improvements in localization recall with larger encoders. The Pair-VPR website is: https://csiro-robotics.github.io/Pair-VPR.

arxiv情報

著者 Stephen Hausler,Peyman Moghadam
発行日 2025-03-02 08:59:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.RO | Pair-VPR: Place-Aware Pre-training and Contrastive Pair Classification for Visual Place Recognition with Vision Transformers はコメントを受け付けていません

NGM-SLAM: Gaussian Splatting SLAM with Radiance Field Submap

要約

ガウススプラッティングに基づくSLAMシステムは、迅速なリアルタイムレンダリングと高忠実度のマッピングが可能であることから注目を集めている。しかし、現在のガウススプラッティングSLAMシステムは、通常、大規模なシーン表現に苦戦し、効果的なループ閉鎖検出を欠いている。これらの問題に対処するために、我々は、ニューラル放射輝度場と3Dガウススプラッティングの長所を効果的に統合し、漸進的なシーン表現のためにニューラル放射輝度場サブマップを利用する、最初の3DGSベースのSLAMシステムであるNGM-SLAMを紹介する。神経輝度場サブマップを監督として利用し、融合サブマップのガウスレンダリングにより、高品質なシーン表現とオンラインループ閉鎖調整を実現する。複数の実世界のシーンと大規模なシーンデータセットに対する我々の結果は、我々の手法が正確な穴埋めと高品質なシーン表現を実現し、単眼、ステレオ、RGB-D入力をサポートし、最先端のシーン再構成と追跡性能を達成できることを示している。

要約(オリジナル)

SLAM systems based on Gaussian Splatting have garnered attention due to their capabilities for rapid real-time rendering and high-fidelity mapping. However, current Gaussian Splatting SLAM systems usually struggle with large scene representation and lack effective loop closure detection. To address these issues, we introduce NGM-SLAM, the first 3DGS based SLAM system that utilizes neural radiance field submaps for progressive scene expression, effectively integrating the strengths of neural radiance fields and 3D Gaussian Splatting. We utilize neural radiance field submaps as supervision and achieve high-quality scene expression and online loop closure adjustments through Gaussian rendering of fused submaps. Our results on multiple real-world scenes and large-scale scene datasets demonstrate that our method can achieve accurate hole filling and high-quality scene expression, supporting monocular, stereo, and RGB-D inputs, and achieving state-of-the-art scene reconstruction and tracking performance.

arxiv情報

著者 Mingrui Li,Jingwei Huang,Lei Sun,Aaron Xuxiang Tian,Tianchen Deng,Hongyu Wang
発行日 2025-03-02 09:06:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO | NGM-SLAM: Gaussian Splatting SLAM with Radiance Field Submap はコメントを受け付けていません

FOSP: Fine-tuning Offline Safe Policy through World Models

要約

オフライン安全強化学習(RL)は、静的なデータセットから学習し、探索を制限することで、安全性の制約に対処しようとしている。しかし、これらのアプローチはデータセットに大きく依存しており、未知のシナリオに安全に汎化することに苦労している。本論文では、オフラインで事前学習されたポリシーをオンラインで微調整することにより、視覚ベースのロボットタスクの展開中の安全性を向上させることを目指す。効果的な微調整を容易にするために、データ効率で知られるモデルベースRLを導入する。具体的には、本手法は、オフラインでの学習効率を向上させるためにサンプル内最適化を用いると同時に、安全性を確保するために到達可能性ガイダンスを組み込む。オフラインで安全なポリシーを得た後、安全なポリシー拡張アプローチをオンライン微調整のために活用する。本手法の性能は、5つの視覚のみのタスクによるシミュレーションベンチマークと、限られたデータを用いた実際のロボット展開により検証される。その結果、我々のアプローチは、安全性に制約のある未知のシナリオに対するオフラインポリシーの汎化を大幅に改善することが実証された。我々の知る限り、これは安全な汎化タスクのためのオフラインからオンラインへのRLを探求した最初の研究である。

要約(オリジナル)

Offline Safe Reinforcement Learning (RL) seeks to address safety constraints by learning from static datasets and restricting exploration. However, these approaches heavily rely on the dataset and struggle to generalize to unseen scenarios safely. In this paper, we aim to improve safety during the deployment of vision-based robotic tasks through online fine-tuning an offline pretrained policy. To facilitate effective fine-tuning, we introduce model-based RL, which is known for its data efficiency. Specifically, our method employs in-sample optimization to improve offline training efficiency while incorporating reachability guidance to ensure safety. After obtaining an offline safe policy, a safe policy expansion approach is leveraged for online fine-tuning. The performance of our method is validated on simulation benchmarks with five vision-only tasks and through real-world robot deployment using limited data. It demonstrates that our approach significantly improves the generalization of offline policies to unseen safety-constrained scenarios. To the best of our knowledge, this is the first work to explore offline-to-online RL for safe generalization tasks.

arxiv情報

著者 Chenyang Cao,Yucheng Xin,Silang Wu,Longxiang He,Zichen Yan,Junbo Tan,Xueqian Wang
発行日 2025-03-02 11:55:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, cs.RO | FOSP: Fine-tuning Offline Safe Policy through World Models はコメントを受け付けていません

CageCoOpt: Enhancing Manipulation Robustness through Caging-Guided Morphology and Policy Co-Optimization

要約

接触ダイナミクスと物体形状の不確実性は、ロバストなロボット操作の大きな障壁であり続けています。ケージングは、精密な接触モデリングを必要とせずに物体の移動性を制約することで、これらの不確実性を軽減する。しかし、既存のケージングの研究は、形態学とポリシーの最適化を別々の問題として扱っており、その本質的な相乗効果を見落としています。本論文では、ロバストなマニピュレーションを実現するために、マニピュレータの形態と制御ポリシーを共同で最適化する階層的フレームワークであるCageCoOptを紹介する。このフレームワークでは、下層でポリシーの最適化に強化学習を用い、上層で形態の最適化にマルチタスクベイズ最適化を用いる。ケージングにおけるロバスト性の指標である最小脱出エネルギーは、ケージング構成を促進し、マニピュレーションのロバスト性を向上させるために、両レベルの目的に組み込まれている。4つのマニピュレーションタスクによる評価結果は、形態とポリシーを協調最適化することで、不確実性の下での成功率が向上することを示しており、ロバストマニピュレーションのための実行可能なアプローチとして、ケージングガイド協調最適化を確立している。

要約(オリジナル)

Uncertainties in contact dynamics and object geometry remain significant barriers to robust robotic manipulation. Caging mitigates these uncertainties by constraining an object’s mobility without requiring precise contact modeling. However, existing caging research has largely treated morphology and policy optimization as separate problems, overlooking their inherent synergy. In this paper, we introduce CageCoOpt, a hierarchical framework that jointly optimizes manipulator morphology and control policy for robust manipulation. The framework employs reinforcement learning for policy optimization at the lower level and multi-task Bayesian optimization for morphology optimization at the upper level. A robustness metric in caging, Minimum Escape Energy, is incorporated into the objectives of both levels to promote caging configurations and enhance manipulation robustness. The evaluation results through four manipulation tasks demonstrate that co-optimizing morphology and policy improves success rates under uncertainties, establishing caging-guided co-optimization as a viable approach for robust manipulation.

arxiv情報

著者 Yifei Dong,Shaohang Han,Xianyi Cheng,Werner Friedl,Rafael I. Cabral Muchacho,Máximo A. Roa,Jana Tumova,Florian T. Pokorny
発行日 2025-03-02 12:30:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO | CageCoOpt: Enhancing Manipulation Robustness through Caging-Guided Morphology and Policy Co-Optimization はコメントを受け付けていません

Action-Consistent Decentralized Belief Space Planning with Inconsistent Beliefs and Limited Data Sharing: Framework and Simplification Algorithms with Formal Guarantees

要約

マルチロボットシステムにおいて、不確実な条件下で安全かつ信頼性の高い意思決定を行うには、ロバストなマルチロボット信念空間計画(MR-BSP)アルゴリズムが必要である。複数のロボットによるプランニングでは、各ロボットが環境の状態に対する信念を保持し、異なる可能性のある行動に対してその信念が将来どのように発展するかを推論する。しかし、既存のMR-BSPは、計画時に異なるロボットの信念が同じであるという共通の仮定を持っている。このような仮定はしばしば非現実的であり、非常に広範で頻繁なデータ共有能力を必要とします。実際には、ロボットの通信能力は限られており、その結果、ロボットの信念は異なる可能性がある。重要なことは、ロボットが矛盾した信念を持っている場合、既存のアプローチではロボット間の協調がとれず、安全でない決定を下してしまう可能性があるということである。本論文では、この重要なギャップを解決するために、性能保証のある分散型MR-BSPアルゴリズムを提案する。我々のアルゴリズムは行動選好の概念を活用する。基本アルゴリズムVerifyACは、3段階の検証により、協調ロボットによる一貫した共同行動選択を保証する。検証が成功した場合、VerifyACは通信をトリガすることなく一貫性のある共同行動を発見し、そうでない場合は通信をトリガする。我々は、アクションの一貫性の基準を緩和することにより、通信回数をさらに減らすための拡張アルゴリズムR-VerifyACを設計する。もう一つの拡張R-VerifyAC-simpは、部分的なオブザベーションの集合を検証することに基づいており、計算時間を大幅に改善する。理論的な性能保証は、離散設定におけるシミュレーション結果によって裏付けられる。さらに、連続的かつ高次元の状態空間と観測空間に対する我々のアプローチを定式化し、実ロボットによる能動的マルチロボット視覚SLAMの実験結果を提供する。

要約(オリジナル)

In multi-robot systems, ensuring safe and reliable decision making under uncertain conditions demands robust multi-robot belief space planning (MR-BSP) algorithms. While planning with multiple robots, each robot maintains a belief over the state of the environment and reasons how the belief would evolve in the future for different possible actions. However, existing MR-BSP works have a common assumption that the beliefs of different robots are same at planning time. Such an assumption is often unrealistic as it requires prohibitively extensive and frequent data sharing capabilities. In practice, robots may have limited communication capabilities, and consequently beliefs of the robots can be different. Crucially, when the robots have inconsistent beliefs, the existing approaches could result in lack of coordination between the robots and may lead to unsafe decisions. In this paper, we present decentralized MR-BSP algorithms, with performance guarantees, for tackling this crucial gap. Our algorithms leverage the notion of action preferences. The base algorithm VerifyAC guarantees a consistent joint action selection by the cooperative robots via a three-step verification. When the verification succeeds, VerifyAC finds a consistent joint action without triggering a communication; otherwise it triggers a communication. We design an extended algorithm R-VerifyAC for further reducing the number of communications, by relaxing the criteria of action consistency. Another extension R-VerifyAC-simp builds on verifying a partial set of observations and improves the computation time significantly. The theoretical performance guarantees are corroborated with simulation results in discrete setting. Furthermore, we formulate our approaches for continuous and high-dimensional state and observation spaces, and provide experimental results for active multi-robot visual SLAM with real robots.

arxiv情報

著者 Tanmoy Kundu,Moshe Rafaeli,Anton Gulyaev,Vadim Indelman
発行日 2025-03-02 13:23:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO | Action-Consistent Decentralized Belief Space Planning with Inconsistent Beliefs and Limited Data Sharing: Framework and Simplification Algorithms with Formal Guarantees はコメントを受け付けていません

Evaluating Low-Resource Lane Following Algorithms for Compute-Constrained Automated Vehicles

要約

信頼性の高い車線追従は、自動運転やアシスト運転にとって不可欠であるが、既存のソリューションは、多くの場合、膨大な計算資源を必要とするモデルに依存しており、計算資源に制約のある車両への導入が制限されている。本研究では、限られた計算資源しか持たない車両でのリアルタイム運転用に設計された5つの低資源車線追従アルゴリズムを評価する。信頼性,快適性,速度,適応性などの評価指標を用いて,シミュレーションと実際のドライブ・バイ・ワイヤ電気自動車への配備により性能を評価した.最も高い性能を示した手法は、教師なし学習を使用して、1フレームあたりの処理時間が10ミリ秒未満で車線を検出・分離し、計算負荷が高く汎化性の低いディープラーニングアプローチを上回った。これらのアプローチは、照明条件、道路のテクスチャ、車線の形状に頑健であることを実証した。この発見は、自律走行車技術のアクセシビリティと信頼性を高める効率的な車線検出アプローチの可能性を強調するものである。コンピューティング要件を低減することで、アクティブセーフティシステムを含む低レベルの自動化の一部として、車線維持が広く車両に導入されることが可能になる。

要約(オリジナル)

Reliable lane-following is essential for automated and assisted driving, yet existing solutions often rely on models that require extensive computational resources, limiting their deployment in compute-constrained vehicles. We evaluate five low-resource lane-following algorithms designed for real-time operation on vehicles with limited computing resources. Performance was assessed through simulation and deployment on real drive-by-wire electric vehicles, with evaluation metrics including reliability, comfort, speed, and adaptability. The top-performing methods used unsupervised learning to detect and separate lane lines with processing time under 10 ms per frame, outperforming compute-intensive and poor generalizing deep learning approaches. These approaches demonstrated robustness across lighting conditions, road textures, and lane geometries. The findings highlight the potential for efficient lane detection approaches to enhance the accessibility and reliability of autonomous vehicle technologies. Reducing computing requirements enables lane keeping to be widely deployed in vehicles as part of lower-level automation, including active safety systems.

arxiv情報

著者 Beñat Froemming-Aldanondo,Tatiana Rastoskueva,Michael Evans,Marcial Machado,Anna Vadella,Rickey Johnson,Luis Escamilla,Milan Jostes,Devson Butani,Ryan Kaddis,Chan-Jin Chung,Joshua Siegel
発行日 2025-03-02 15:30:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.RO | Evaluating Low-Resource Lane Following Algorithms for Compute-Constrained Automated Vehicles はコメントを受け付けていません

Phase-Amplitude Reduction-Based Imitation Learning

要約

本研究では、模倣学習フレームワークを構築するために、位相振幅削減法の利用を提案する。人間の動作軌跡を模倣することは、人間のような様々なロボット動作を生成するための有望な戦略として認識されている。これまでの力学系に基づく模倣学習アプローチとは異なり、本提案手法では、ロボットがリミットサイクルの軌道を模倣するだけでなく、初期状態や乱れた状態からリミットサイクルまでの過渡的な動きも再現することができる。その結果、本手法は、外乱直後や指定された初期状態から予測不可能な運動を生成することを回避し、より安全な模倣学習アプローチを提供する。我々はまず、単純なリミットサイクルアトラクターを再構成することにより、提案手法を検証した。次に、模擬ロボットアームを用いたレムニスケート軌道追跡課題において、提案手法を従来手法と比較した。その結果、提案手法は従来の標準的な手法と比較して、目標周期アトラクターに収束するための過渡的な運動をより正確に生成できることが確認された。その後、人間の周期的な動きを模倣するために、本手法を実際のロボットアームに適用した。

要約(オリジナル)

In this study, we propose the use of the phase-amplitude reduction method to construct an imitation learning framework. Imitating human movement trajectories is recognized as a promising strategy for generating a range of human-like robot movements. Unlike previous dynamical system-based imitation learning approaches, our proposed method allows the robot not only to imitate a limit cycle trajectory but also to replicate the transient movement from the initial or disturbed state to the limit cycle. Consequently, our method offers a safer imitation learning approach that avoids generating unpredictable motions immediately after disturbances or from a specified initial state. We first validated our proposed method by reconstructing a simple limit-cycle attractor. We then compared the proposed approach with a conventional method on a lemniscate trajectory tracking task with a simulated robot arm. Our findings confirm that our proposed method can more accurately generate transient movements to converge on a target periodic attractor compared to the previous standard approach. Subsequently, we applied our method to a real robot arm to imitate periodic human movements.

arxiv情報

著者 Satoshi Yamamori,Jun Morimoto
発行日 2025-03-02 16:21:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, cs.RO | Phase-Amplitude Reduction-Based Imitation Learning はコメントを受け付けていません

Foundational Policy Acquisition via Multitask Learning for Motor Skill Generation

要約

本研究では、新規な運動スキルを生成するための基礎的な方針獲得のためのマルチタスク強化学習アルゴリズムを提案する。\本研究では、マルチタスク強化学習アルゴリズムを提案する。我々は、人間の感覚運動適応メカニズムに着想を得て、エンコーダ・デコーダネットワークの構築とネットワーク選択を行う学習パイプラインを開発し、複数の状況下での基礎的なポリシーの獲得を容易にした。まず、標準的なマルチロケーションタスクにおいて、提案手法を従来のマルチタスク強化学習手法と比較した。その結果、提案手法はベースライン手法を凌駕することが示された。次に、提案手法を一脚ロボットモデルを用いたボールヘディングタスクに適用し、スキル生成性能を評価した。その結果、提案手法は、新奇な目標位置や未経験のボール返還係数に適応しつつも、元々ヘディング動作のために学習された基礎的なポリシーネットワークを獲得することができ、全く新しいオーバーヘッドキックスキルを生成できることが示された。

要約(オリジナル)

In this study, we propose a multitask reinforcement learning algorithm for foundational policy acquisition to generate novel motor skills. \textcolor{\hcolor}{Learning the rich representation of the multitask policy is a challenge in dynamic movement generation tasks because the policy needs to cope with changes in goals or environments with different reward functions or physical parameters. Inspired by human sensorimotor adaptation mechanisms, we developed the learning pipeline to construct the encoder-decoder networks and network selection to facilitate foundational policy acquisition under multiple situations. First, we compared the proposed method with previous multitask reinforcement learning methods in the standard multi-locomotion tasks. The results showed that the proposed approach outperformed the baseline methods. Then, we applied the proposed method to the ball heading task using a monopod robot model to evaluate skill generation performance. The results showed that the proposed method was able to adapt to novel target positions or inexperienced ball restitution coefficients but to acquire a foundational policy network, originally learned for heading motion, which can generate an entirely new overhead kicking skill.

arxiv情報

著者 Satoshi Yamamori,Jun Morimoto
発行日 2025-03-02 16:36:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, cs.RO | Foundational Policy Acquisition via Multitask Learning for Motor Skill Generation はコメントを受け付けていません

A Target-Based Extrinsic Calibration Framework for Non-Overlapping Camera-Lidar Systems Using a Motion Capture System

要約

我々は、視野(FOV)が重複しないセンサーに使用できる、新しいターゲットベースのライダー-カメラ外部校正手法を提示する。これまでの研究とは異なり、本手法は、従来のローカライゼーションとマッピングの同時アプローチではなく、モーションキャプチャシステム(MCS)を用いて、FOVが重ならないという課題を克服する。MCSの高い相対精度により、我々の手法は、センサーの視野の重なり量に関係なく、従来のターゲットベースの手法に共通する高精度と再現可能な較正の両方を達成することができる。さらに、MSC測定によって可能となる反復的最近接点アプローチを用いることにより、一意に識別可能な特徴を必要としない、ターゲットに依存しない実装を設計する。シミュレーションにより、実際の状況で予想される真の較正に対する様々な摂動に対して、外部較正を正確に回復できることを示す。また、繰り返し高精度を保証するターゲットベースのアプローチを用いながら、FOVが重複しないシステムに使用できる最新のライダーカメラ外部較正法を凌駕することを実験的に証明する。最後に、シミュレーションにより、通常ほとんどの校正定式化では縮退していると考えられている円柱のような簡単に構築できる3Dターゲットを含め、さまざまなターゲット設計を使用できることを示す。

要約(オリジナル)

We present a novel target-based lidar-camera extrinsic calibration methodology that can be used for non-overlapping field of view (FOV) sensors. Contrary to previous work, our methodology overcomes the non-overlapping FOV challenge using a motion capture system (MCS) instead of traditional simultaneous localization and mapping approaches. Due to the high relative precision of MCSs, our methodology can achieve both the high accuracy and repeatable calibrations common to traditional target-based methods, regardless of the amount of overlap in the sensors’ field of view. Furthermore, we design a target-agnostic implementation that does not require uniquely identifiable features by using an iterative closest point approach, enabled by the MSC measurements. We show using simulation that we can accurately recover extrinsic calibrations for a range of perturbations to the true calibration that would be expected in real circumstances. We prove experimentally that our method out-performs state-of-the-art lidar-camera extrinsic calibration methods that can be used for non-overlapping FOV systems, while using a target-based approach that guarantees repeatably high accuracy. Lastly, we show in simulation that different target designs can be used, including easily constructed 3D targets such as a cylinder that are normally considered degenerate in most calibration formulations.

arxiv情報

著者 Nicholas Charron,Huaiyuan Weng,Steven L. Waslander,Sriram Narasimhan
発行日 2025-03-02 18:33:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO | A Target-Based Extrinsic Calibration Framework for Non-Overlapping Camera-Lidar Systems Using a Motion Capture System はコメントを受け付けていません

Model Predictive Inferential Control of Neural State-Space Models for Autonomous Vehicle Motion Planning

要約

モデル予測制御(MPC)は、自律走行車の安全で最適な運動計画を可能にする上で有用であることが証明されている。本稿では、車両のダイナミクスをニューラル状態空間モデルで表現した場合に、MPCに基づく運動計画をどのように実現するかを検討する。ニューラル状態空間モデルは非常に複雑で非線形かつ非凸の最適化ランドスケープをもたらすため、主流の勾配ベースのMPC手法は計算量が多すぎて実行可能な解決策にはならない。そこで我々は、制御目標と制約条件から最適な制御決定を推論するモデル予測推論制御(MPIC)を提案する。この考えに従い、運動計画のためのMPC問題をベイズ状態推定問題に変換する。そして、推定を実行するための新しいパーティクルフィルタリング/スムージングアプローチを開発する。このアプローチは、uncented Kalman filters/smoothersのバンクとして実装され、高いサンプリング効率、高速計算、および推定精度を提供する。我々は、勾配ベースのMPCとの徹底的な比較とともに、様々なシナリオにおける自律走行のシミュレーション研究を通じてMPICアプローチを評価する。その結果、MPICアプローチは、複雑なニューラルネットワークアーキテクチャに関わらず、かなりの計算効率を有し、ニューラルネットワーク状態空間モデルの大規模MPC問題を解く能力を示す。

要約(オリジナル)

Model predictive control (MPC) has proven useful in enabling safe and optimal motion planning for autonomous vehicles. In this paper, we investigate how to achieve MPC-based motion planning when a neural state-space model represents the vehicle dynamics. As the neural state-space model will lead to highly complex, nonlinear and nonconvex optimization landscapes, mainstream gradient-based MPC methods will be computationally too heavy to be a viable solution. In a departure, we propose the idea of model predictive inferential control (MPIC), which seeks to infer the best control decisions from the control objectives and constraints. Following the idea, we convert the MPC problem for motion planning into a Bayesian state estimation problem. Then, we develop a new particle filtering/smoothing approach to perform the estimation. This approach is implemented as banks of unscented Kalman filters/smoothers and offers high sampling efficiency, fast computation, and estimation accuracy. We evaluate the MPIC approach through a simulation study of autonomous driving in different scenarios, along with an exhaustive comparison with gradient-based MPC. The results show that the MPIC approach has considerable computational efficiency, regardless of complex neural network architectures, and shows the capability to solve large-scale MPC problems for neural state-space models.

arxiv情報

著者 Iman Askari,Ali Vaziri,Xumein Tu,Shen Zeng,Huazhen Fang
発行日 2025-03-02 21:21:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO, cs.SY, eess.SY | Model Predictive Inferential Control of Neural State-Space Models for Autonomous Vehicle Motion Planning はコメントを受け付けていません