要約
オフロードナビゲーションは、惑星探査や災害対応などのフィールドロボットの幅広い用途に不可欠です。
しかし、構造化されていない環境と、地形と車両の相互作用に固有の複雑さがあるため、未解決の課題が残されています。
従来の物理ベースの手法では、これらの相互作用の非線形ダイナミクスを正確にモデル化するのが困難ですが、データ駆動型のアプローチでは、特定の動作パターン、車両のサイズ、タイプへの過剰適合が発生し、一般化可能性が制限されることがよくあります。
これらの課題を克服するために、神経記号原理に基づいた視覚ベースの摩擦推定フレームワークを導入し、視覚認識のためのニューラル ネットワークと物理モデリングのための記号推論を統合します。
これにより、予測された摩擦を組み込んだ明示的な物理的推論を通じて一般化能力が大幅に向上します。
さらに、学習した摩擦係数を活用して、物理的に実現可能で効率的な経路と、対応する速度プロファイルを生成する、物理学に基づいたプランナーを開発します。
私たちは当社のアプローチを AnyNav と呼び、シミュレーションと実世界の実験の両方で評価し、さまざまなオフロード シナリオや複数のタイプの四輪車にわたってその有用性と堅牢性を実証しています。
これらの結果は、複雑で構造化されていない環境を推論し、困難なシナリオでの自律的なオフロードナビゲーションを可能にする神経記号空間インテリジェンスの開発に向けた重要な一歩を示しています。
ビデオデモは https://sairlab.org/anynav/ で入手でき、ソースコードも公開されます。
要約(オリジナル)
Off-road navigation is essential for a wide range of applications in field robotics such as planetary exploration and disaster response. However, it remains an unresolved challenge due to the unstructured environments and inherent complexity of terrain-vehicle interactions. Traditional physics-based methods struggle to accurately model the nonlinear dynamics of these interactions, while data-driven approaches often suffer from overfitting to specific motion patterns, vehicle sizes, and types, limiting their generalizability. To overcome these challenges, we introduce a vision-based friction estimation framework grounded in neuro-symbolic principles, integrating neural networks for visual perception with symbolic reasoning for physical modeling. This enables significantly improved generalization abilities through explicit physical reasoning incorporating the predicted friction. Additionally, we develop a physics-informed planner that leverages the learned friction coefficient to generate physically feasible and efficient paths, along with corresponding speed profiles. We refer to our approach as AnyNav and evaluate it in both simulation and real-world experiments, demonstrating its utility and robustness across various off-road scenarios and multiple types of four-wheeled vehicles. These results mark an important step toward developing neuro-symbolic spatial intelligence to reason about complex, unstructured environments and enable autonomous off-road navigation in challenging scenarios. Video demonstrations are available at https://sairlab.org/anynav/, where the source code will also be released.
arxiv情報
著者 | Taimeng Fu,Zitong Zhan,Zhipeng Zhao,Shaoshu Su,Xiao Lin,Ehsan Tarkesh Esfahani,Karthik Dantu,Souma Chowdhury,Chen Wang |
発行日 | 2025-01-22 05:33:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google