Causality-enhanced Decision-Making for Autonomous Mobile Robots in Dynamic Environments

要約

倉庫、ショッピングセンター、病院などの共有環境でのロボットの統合の拡大は、個人がさまざまな活動や相互作用に従事する方法、いつ、どこで関与するかなど、根本的なダイナミクスと人間の行動を深く理解する必要があります。
この知識は、単純な相関研究を超えており、より包括的な因果分析が必要です。
原因推論を活用して原因と効果の関係をモデル化することにより、重要な環境要因をより適切に予測し、自律的なロボットがタスクをより効果的に計画および実行できるようにすることができます。
この目的のために、私たちは、学習した因果モデルよりもバッテリーの使用と人間の妨害を予測する理由を理由にして、これらの要因がロボットタスクの実行にどのように影響するかを理解するための新しい因果関係に基づいた意思決定フレームワークを提案します。
このような推論フレームワークは、特定のタスクをいつ、どのように完了するかを決定する際にロボットを支援します。
これを達成するために、共有ワークスペースでのコンテキストに敏感な人間ロボット空間的相互作用をモデル化するように設計された新しいガゼボベースのシミュレーターであるPeopleFlowも開発しました。
PeopleFlowは、時間、環境のレイアウト、ロボット状態などのコンテキスト要因の影響を受ける現実的な人間およびロボットの軌跡を特徴としており、多数のエージェントをシミュレートできます。
シミュレーターは汎用ですが、このホワイトペーパーでは、ケーススタディとして倉庫のような環境に焦点を当て、非因果的なベースラインに対する因果アプローチを大幅に実施しています。
私たちの調査結果は、提案されたソリューションの有効性を示しており、因果的推論により、自律的なロボットが人間と共有された動的環境でより効率的かつ安全に動作することを強調しています。

要約(オリジナル)

The growing integration of robots in shared environments — such as warehouses, shopping centres, and hospitals — demands a deep understanding of the underlying dynamics and human behaviours, including how, when, and where individuals engage in various activities and interactions. This knowledge goes beyond simple correlation studies and requires a more comprehensive causal analysis. By leveraging causal inference to model cause-and-effect relationships, we can better anticipate critical environmental factors and enable autonomous robots to plan and execute tasks more effectively. To this end, we propose a novel causality-based decision-making framework that reasons over a learned causal model to predict battery usage and human obstructions, understanding how these factors could influence robot task execution. Such reasoning framework assists the robot in deciding when and how to complete a given task. To achieve this, we developed also PeopleFlow, a new Gazebo-based simulator designed to model context-sensitive human-robot spatial interactions in shared workspaces. PeopleFlow features realistic human and robot trajectories influenced by contextual factors such as time, environment layout, and robot state, and can simulate a large number of agents. While the simulator is general-purpose, in this paper we focus on a warehouse-like environment as a case study, where we conduct an extensive evaluation benchmarking our causal approach against a non-causal baseline. Our findings demonstrate the efficacy of the proposed solutions, highlighting how causal reasoning enables autonomous robots to operate more efficiently and safely in dynamic environments shared with humans.

arxiv情報

著者 Luca Castri,Gloria Beraldo,Nicola Bellotto
発行日 2025-04-17 08:41:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | Causality-enhanced Decision-Making for Autonomous Mobile Robots in Dynamic Environments はコメントを受け付けていません

Securing the Skies: A Comprehensive Survey on Anti-UAV Methods, Benchmarking, and Future Directions

要約

無人航空機(UAV)は、インフラストラクチャの検査、監視、および関連するタスクに不可欠ですが、重要なセキュリティの課題も導入しています。
この調査では、拡散ベースのデータ合成、マルチモーダル融合、ビジョン言語モデリング、自己評価学習、強化学習などの新しい方法論の詳細を詳述した3つのコア目標分類、検出、および追跡を中心に、アンチウアブドメインの幅広い調査を提供します。
シングルモダリティとマルチセンサーパイプライン(RGB、赤外線、オーディオ、レーダー、RFにまたがる)の両方で最新のソリューションを体系的に評価し、大規模および敵対的なベンチマークについて議論します。
私たちの分析により、リアルタイムのパフォーマンス、ステルス検出、群れベースのシナリオの永続的なギャップが明らかになり、堅牢で適応性のあるAnti-UAVシステムの差し迫ったニーズを強調しています。
オープンな研究の方向性を強調することにより、私たちは革新を促進し、UAVの広範な使用が特徴付けられた時代の次世代防衛戦略の開発を導くことを目指しています。

要約(オリジナル)

Unmanned Aerial Vehicles (UAVs) are indispensable for infrastructure inspection, surveillance, and related tasks, yet they also introduce critical security challenges. This survey provides a wide-ranging examination of the anti-UAV domain, centering on three core objectives-classification, detection, and tracking-while detailing emerging methodologies such as diffusion-based data synthesis, multi-modal fusion, vision-language modeling, self-supervised learning, and reinforcement learning. We systematically evaluate state-of-the-art solutions across both single-modality and multi-sensor pipelines (spanning RGB, infrared, audio, radar, and RF) and discuss large-scale as well as adversarially oriented benchmarks. Our analysis reveals persistent gaps in real-time performance, stealth detection, and swarm-based scenarios, underscoring pressing needs for robust, adaptive anti-UAV systems. By highlighting open research directions, we aim to foster innovation and guide the development of next-generation defense strategies in an era marked by the extensive use of UAVs.

arxiv情報

著者 Yifei Dong,Fengyi Wu,Sanjian Zhang,Guangyu Chen,Yuzhi Hu,Masumi Yano,Jingdong Sun,Siyu Huang,Feng Liu,Qi Dai,Zhi-Qi Cheng
発行日 2025-04-17 09:25:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO | Securing the Skies: A Comprehensive Survey on Anti-UAV Methods, Benchmarking, and Future Directions はコメントを受け付けていません

Know Where You’re Uncertain When Planning with Multimodal Foundation Models: A Formal Framework

要約

マルチモーダルファンデーションモデルは、実行可能な計画を生成するために感覚入力を処理することにより、ロボットの知覚と計画のための有望なフレームワークを提供します。
ただし、知覚(感覚解釈)と意思決定(計画生成)の両方の不確実性に対処することは、タスクの信頼性を確保するための重要な課題のままです。
これらの2つの形式の不確実性を解きほぐし、定量化し、軽減するための包括的なフレームワークを提示します。
最初に、不確実性の解体の枠組みを紹介し、生成された計画の堅牢性に関連する視覚的理解と決定の不確実性の制限から生じる知覚の不確実性を分離します。
各タイプの不確実性を定量化するために、知覚と意思決定のユニークな特性に合わせた方法を提案します。コンフォーマル予測を使用して知覚の不確実性を調整し、正式なメソッド駆動型予測(FMDP)を導入して意思決定の不確実性を定量化し、理論保証の正式な検証技術を活用します。
この定量化に基づいて、2つの標的介入メカニズムを実装します。視覚的な入力品質を向上させるために高度な確実なシーンを動的に再観測するアクティブなセンシングプロセスと、モデルを高確認データで微調整し、タスク仕様を満たす機能を改善する自動改良手順です。
現実世界およびシミュレートされたロボットタスクの経験的検証は、私たちの不確実性の解体フレームワークが変動性を最大40%減らし、ベースラインと比較してタスクの成功率を5%増強することを示しています。
これらの改善は、両方の介入の複合効果と、自律システムの堅牢性と信頼性を高めるターゲットを絞った介入を促進する不確実性解体の重要性を強調しています。
微調整されたモデル、コード、およびデータセットは、https://uncentaverty-in-planning.github.io/で入手できます。

要約(オリジナル)

Multimodal foundation models offer a promising framework for robotic perception and planning by processing sensory inputs to generate actionable plans. However, addressing uncertainty in both perception (sensory interpretation) and decision-making (plan generation) remains a critical challenge for ensuring task reliability. We present a comprehensive framework to disentangle, quantify, and mitigate these two forms of uncertainty. We first introduce a framework for uncertainty disentanglement, isolating perception uncertainty arising from limitations in visual understanding and decision uncertainty relating to the robustness of generated plans. To quantify each type of uncertainty, we propose methods tailored to the unique properties of perception and decision-making: we use conformal prediction to calibrate perception uncertainty and introduce Formal-Methods-Driven Prediction (FMDP) to quantify decision uncertainty, leveraging formal verification techniques for theoretical guarantees. Building on this quantification, we implement two targeted intervention mechanisms: an active sensing process that dynamically re-observes high-uncertainty scenes to enhance visual input quality and an automated refinement procedure that fine-tunes the model on high-certainty data, improving its capability to meet task specifications. Empirical validation in real-world and simulated robotic tasks demonstrates that our uncertainty disentanglement framework reduces variability by up to 40% and enhances task success rates by 5% compared to baselines. These improvements are attributed to the combined effect of both interventions and highlight the importance of uncertainty disentanglement, which facilitates targeted interventions that enhance the robustness and reliability of autonomous systems. Fine-tuned models, code, and datasets are available at https://uncertainty-in-planning.github.io/.

arxiv情報

著者 Neel P. Bhatt,Yunhao Yang,Rohan Siva,Daniel Milan,Ufuk Topcu,Zhangyang Wang
発行日 2025-04-17 02:45:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO | Know Where You’re Uncertain When Planning with Multimodal Foundation Models: A Formal Framework はコメントを受け付けていません

Safety with Agency: Human-Centered Safety Filter with Application to AI-Assisted Motorsports

要約

人間の機関を損なうことなくシステムの安全性を大幅に向上させる共有自律性のために、人間中心の安全フィルター(HCSF)を提案します。
当社のHCSFは、神経安全価値関数に基づいて構築されています。これは、最初にブラックボックスの相互作用を通じて拡張的に学習し、次に展開時に使用して、新しい状態アクション制御バリア機能(Q-CBF)の安全制約を実施します。
このQ-CBF安全フィルターは、合成とランタイムの安全性の監視と介入の両方について、システムのダイナミクスに関する知識を必要としないため、私たちの方法は複雑なブラックボックス共有の自律システムに容易に適用されます。
特に、HCSFのCBFベースの介入は、多くの従来の安全フィルターによって提供される突然の土壇場の修正を回避し、人間の行動を最小限かつスムーズに変更します。
Assetto Corsa-A Highfichity Car Racing Simulatorを使用して、Assetto Corsa-A High-Fidelity Car Racing Simulatorを使用して、「エッジ上での運転」シナリオでの堅牢性を評価する包括的な対面ユーザー調査におけるアプローチを検証します。
軌道データと、HCSF支援に対するドライバーの認識の両方を、非支援運転と従来の安全フィルターと比較します。
実験結果は、1)支援がないのと比較して、HCSFは人間の代理店や快適さを損なうことなく安全性とユーザーの満足度の両方を改善し、2)従来の安全フィルターと比較して、提案されているHCSFは、堅牢性を維持しながら人間の代理店、快適性、満足度を高めます。

要約(オリジナル)

We propose a human-centered safety filter (HCSF) for shared autonomy that significantly enhances system safety without compromising human agency. Our HCSF is built on a neural safety value function, which we first learn scalably through black-box interactions and then use at deployment to enforce a novel state-action control barrier function (Q-CBF) safety constraint. Since this Q-CBF safety filter does not require any knowledge of the system dynamics for both synthesis and runtime safety monitoring and intervention, our method applies readily to complex, black-box shared autonomy systems. Notably, our HCSF’s CBF-based interventions modify the human’s actions minimally and smoothly, avoiding the abrupt, last-moment corrections delivered by many conventional safety filters. We validate our approach in a comprehensive in-person user study using Assetto Corsa-a high-fidelity car racing simulator with black-box dynamics-to assess robustness in ‘driving on the edge’ scenarios. We compare both trajectory data and drivers’ perceptions of our HCSF assistance against unassisted driving and a conventional safety filter. Experimental results show that 1) compared to having no assistance, our HCSF improves both safety and user satisfaction without compromising human agency or comfort, and 2) relative to a conventional safety filter, our proposed HCSF boosts human agency, comfort, and satisfaction while maintaining robustness.

arxiv情報

著者 Donggeon David Oh,Justin Lidard,Haimin Hu,Himani Sinhmar,Elle Lazarski,Deepak Gopinath,Emily S. Sumner,Jonathan A. DeCastro,Guy Rosman,Naomi Ehrich Leonard,Jaime Fernández Fisac
発行日 2025-04-17 02:02:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Safety with Agency: Human-Centered Safety Filter with Application to AI-Assisted Motorsports はコメントを受け付けていません

Selective Attention Federated Learning: Improving Privacy and Efficiency for Clinical Text Classification

要約

フェデレーションラーニング(FL)は、特にヘルスケアアプリケーションで大規模な言語モデル(LLM)をトレーニングする際に、コミュニケーションオーバーヘッドとモデルのプライバシーに関する大きな課題に直面しています。
これらに対処するために、選択的注意層として特定されたトランス層のみを動的に微調整する新しいアプローチである選択的注意フェデレートラーニング(SAFL)を紹介します。
レイヤーの重要性を決定するために注意パターンを使用することにより、Saflはコミュニケーションの帯域幅を大幅に削減し、プライバシーのレジリエンスを拡大します。
臨床NLPベンチマークの評価(I2B2臨床概念抽出と模倣III放電の要約)は、SAFLが集中モデルで競争力のあるパフォーマンスを達成し、コミュニケーションの効率とプライバシーの保存を大幅に改善することを示しています。

要約(オリジナル)

Federated Learning (FL) faces major challenges regarding communication overhead and model privacy when training large language models (LLMs), especially in healthcare applications. To address these, we introduce Selective Attention Federated Learning (SAFL), a novel approach that dynamically fine-tunes only those transformer layers identified as attention-critical. By employing attention patterns to determine layer importance, SAFL significantly reduces communication bandwidth and enhances differential privacy resilience. Evaluations on clinical NLP benchmarks (i2b2 Clinical Concept Extraction and MIMIC-III discharge summaries) demonstrate that SAFL achieves competitive performance with centralized models while substantially improving communication efficiency and privacy preservation.

arxiv情報

著者 Yue Li,Lihong Zhang
発行日 2025-04-17 06:24:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | Selective Attention Federated Learning: Improving Privacy and Efficiency for Clinical Text Classification はコメントを受け付けていません

StructRe: Rewriting for Structured Shape Modeling

要約

人工の3D形状は、部品と階層で自然に編成されています。
このような構造は、形状の再構築と生成の重要な制約を提供します。
形状構造のモデリングは困難です。なぜなら、特定の形状に複数の階層があり、あいまいさを引き起こす可能性があり、異なるカテゴリで形状構造はセマンティクスと相関して一般化を制限するためです。
構造の形状モデリングへの新しいアプローチとして、構造書き換えシステムであるStructreを提示します。
ポイントとコンポーネントで表される3Dオブジェクトを考えると、Structreはより簡潔な構造に上向きに書き換えたり、より詳細な構造にしたりすることができます。
書き換えプロセスを反復することにより、階層が取得されます。
このようなローカライズされた書き換えプロセスにより、曖昧な構造の確率的モデリングと、オブジェクトカテゴリ全体で堅牢な一般化が可能になります。
パートネットデータでStructreをトレーニングし、その一般化をクロスカテゴリおよび複数のオブジェクト階層に示し、拡張をShapenetにテストします。
また、形状の再構築、生成、編集タスクのための確率的で一般化可能な構造モデリングの利点を示します。

要約(オリジナル)

Man-made 3D shapes are naturally organized in parts and hierarchies; such structures provide important constraints for shape reconstruction and generation. Modeling shape structures is difficult, because there can be multiple hierarchies for a given shape, causing ambiguity, and across different categories the shape structures are correlated with semantics, limiting generalization. We present StructRe, a structure rewriting system, as a novel approach to structured shape modeling. Given a 3D object represented by points and components, StructRe can rewrite it upward into more concise structures, or downward into more detailed structures; by iterating the rewriting process, hierarchies are obtained. Such a localized rewriting process enables probabilistic modeling of ambiguous structures and robust generalization across object categories. We train StructRe on PartNet data and show its generalization to cross-category and multiple object hierarchies, and test its extension to ShapeNet. We also demonstrate the benefits of probabilistic and generalizable structure modeling for shape reconstruction, generation and editing tasks.

arxiv情報

著者 Jiepeng Wang,Hao Pan,Yang Liu,Xin Tong,Taku Komura,Wenping Wang
発行日 2025-04-17 02:46:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV | StructRe: Rewriting for Structured Shape Modeling はコメントを受け付けていません

Enhancing Autonomous Driving Systems with On-Board Deployed Large Language Models

要約

すべてのエッジケースをカバーする徹底的なデータセットの扱いやすさ、知識主導のアプローチを作成するために、現実世界の運転で一般的なエッジケースシナリオの管理との監督された学習闘争を通じて訓練されたニューラルネットワーク(NNS)は、人間が予期せぬ運転行動を直感的に検出し、データ主導型の方法に適した補完を検出する方法に似ています。
この作業では、低レベルモデルの予測コントローラー(MPC)とローカルに展開された大規模な言語モデル(LLMS)を組み合わせて、意思決定と人間の機械の相互作用(HMI)を強化するハイブリッドアーキテクチャを提案しています。
DecisionXLLMモジュールは、自然言語の指示に対してロボット状態情報を評価して、望ましい運転行動への順守を確保します。
MPCXLLMモジュールは、LLMで生成された洞察に基づいてMPCパラメーターを調整し、従来のMPCシステムの安全性と制約保証を維持しながら、制御適応性を実現します。
さらに、効率的なオンボード展開を可能にし、クラウド接続への依存を排除​​するために、処理をオンボードコンピューティングプラットフォームにシフトします。検索拡張生成(RAG)、低ランク適応(LORA)微調整、および量子化を活用するアプローチを提案します。
実験結果は、これらの強化により、推論精度が最大10.45%、最大52.2%、最大10.5倍の計算効率(トークン/s)の増加(トークン/s)が大幅に改善され、ダウンスケールのロボットプラットフォームでもリアルタイムの展開のための提案されたフレームワークの実用性を検証することが示されています。
この作業は、低レベルの制御適応性を備えた高レベルの意思決定を橋渡しし、知識駆動型の適応的自律駆動システム(ADS)の相乗的なフレームワークを提供します。

要約(オリジナル)

Neural Networks (NNs) trained through supervised learning struggle with managing edge-case scenarios common in real-world driving due to the intractability of exhaustive datasets covering all edge-cases, making knowledge-driven approaches, akin to how humans intuitively detect unexpected driving behavior, a suitable complement to data-driven methods. This work proposes a hybrid architecture combining low-level Model Predictive Controller (MPC) with locally deployed Large Language Models (LLMs) to enhance decision-making and Human Machine Interaction (HMI). The DecisionxLLM module evaluates robotic state information against natural language instructions to ensure adherence to desired driving behavior. The MPCxLLM module then adjusts MPC parameters based on LLM-generated insights, achieving control adaptability while preserving the safety and constraint guarantees of traditional MPC systems. Further, to enable efficient on-board deployment and to eliminate dependency on cloud connectivity, we shift processing to the on-board computing platform: We propose an approach that exploits Retrieval Augmented Generation (RAG), Low Rank Adaptation (LoRA) fine-tuning, and quantization. Experimental results demonstrate that these enhancements yield significant improvements in reasoning accuracy by up to 10.45%, control adaptability by as much as 52.2%, and up to 10.5x increase in computational efficiency (tokens/s), validating the proposed framework’s practicality for real-time deployment even on down-scaled robotic platforms. This work bridges high-level decision-making with low-level control adaptability, offering a synergistic framework for knowledge-driven and adaptive Autonomous Driving Systems (ADS).

arxiv情報

著者 Nicolas Baumann,Cheng Hu,Paviththiren Sivasothilingam,Haotong Qin,Lei Xie,Michele Magno,Luca Benini
発行日 2025-04-15 13:49:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | Enhancing Autonomous Driving Systems with On-Board Deployed Large Language Models はコメントを受け付けていません

LANGTRAJ: Diffusion Model and Dataset for Language-Conditioned Trajectory Simulation

要約

制御可能性を備えた自律車両を評価することで、反事実または構造化された設定でスケーラブルなテストを可能にし、効率と安全の両方を強化します。
トラフィックシナリオのすべてのエージェントの共同挙動をシミュレートする言語条件付きシーン拡散モデルであるLangtrajを紹介します。
自然言語の入力を条件付けることにより、Langtrajはインタラクティブな動作を柔軟かつ直感的に制御し、微妙で現実的なシナリオを生成します。
ドメイン固有のガイダンス関数に依存する以前のアプローチとは異なり、Langtrajはトレーニング中に言語条件付けを組み込み、より直感的なトラフィックシミュレーション制御を促進します。
拡散モデル向けの新しい閉ループトレーニング戦略を提案します。これは、閉ループシミュレーション中の安定性とリアリズムを強化するために明示的に調整されています。
言語条件付きシミュレーションをサポートするために、言語条件付き拡散モデルをトレーニングするための多様でインタラクティブなラベルを備えた大規模なデータセットであるインタードライブを開発します。
データセットは、エージェントとエージェントの相互作用と単一エージェントの動作を注釈するためのスケーラブルなパイプラインの上に構築され、豊富で多様な監督を確保します。
Waymoモーションデータセットで検証されたLangtrajは、リアリズム、言語制御性、言語条件付きの安全性クリティカルシミュレーションにおける強力なパフォーマンスを示し、柔軟でスケーラブルな自律車両テストの新しいパラダイムを確立します。

要約(オリジナル)

Evaluating autonomous vehicles with controllability enables scalable testing in counterfactual or structured settings, enhancing both efficiency and safety. We introduce LangTraj, a language-conditioned scene-diffusion model that simulates the joint behavior of all agents in traffic scenarios. By conditioning on natural language inputs, LangTraj provides flexible and intuitive control over interactive behaviors, generating nuanced and realistic scenarios. Unlike prior approaches that depend on domain-specific guidance functions, LangTraj incorporates language conditioning during training, facilitating more intuitive traffic simulation control. We propose a novel closed-loop training strategy for diffusion models, explicitly tailored to enhance stability and realism during closed-loop simulation. To support language-conditioned simulation, we develop Inter-Drive, a large-scale dataset with diverse and interactive labels for training language-conditioned diffusion models. Our dataset is built upon a scalable pipeline for annotating agent-agent interactions and single-agent behaviors, ensuring rich and varied supervision. Validated on the Waymo Motion Dataset, LangTraj demonstrates strong performance in realism, language controllability, and language-conditioned safety-critical simulation, establishing a new paradigm for flexible and scalable autonomous vehicle testing.

arxiv情報

著者 Wei-Jer Chang,Wei Zhan,Masayoshi Tomizuka,Manmohan Chandraker,Francesco Pittaluga
発行日 2025-04-15 17:14:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO, I.2.6 | LANGTRAJ: Diffusion Model and Dataset for Language-Conditioned Trajectory Simulation はコメントを受け付けていません

RESPLE: Recursive Spline Estimation for LiDAR-Based Odometry

要約

b-splinesを使用した連続時間6-dofダイナミックモーション推定のための新しい再帰的ベイジアン推定フレームワークを紹介します。
状態ベクトルは、位置制御ポイントの再発セットと方向制御ポイントの増分で構成され、エラー状態の定式化を伴わずに、反復された拡張カルマンフィルターの簡単な変更を可能にします。
結果として得られる再帰スプライン推定器(RESPLE)は、モーション推定のための多用途で実用的で軽量のソリューションを提供し、1つまたは複数のLIDARとIMUの統合をサポートする直接的なLIDARベースの匂いのためにさらに活用されます。
公開データセットと独自の実験に基づいて、屋内、都市部、野生の野生の環境で動作する空中、車輪、脚の、ウェアラブルなプラットフォームをカバーする独自の実験に基づいて、広範な実世界のベンチマークを実施しています。
レスレベースのソリューションは、リアルタイムのパフォーマンスを達成しながら、対応する最先端のシステムよりも優れた推定精度と堅牢性を実現します。
特に、LIDARのみのバリアントは、Lidarの重大な縮退なしのシナリオで既存のLidar-inertialシステムよりも優れており、追加のLidarおよび慣性センサーがより困難な条件のために組み込まれている場合、さらなる改善を示しています。
https://github.com/asig-x/respleでソースコードと独自の実験データセットをリリースします。

要約(オリジナル)

We present a novel recursive Bayesian estimation framework for continuous-time six-DoF dynamic motion estimation using B-splines. The state vector consists of a recurrent set of position control points and orientation control point increments, enabling a straightforward modification of the iterated extended Kalman filter without involving the error-state formulation. The resulting recursive spline estimator (RESPLE) provides a versatile, pragmatic and lightweight solution for motion estimation and is further exploited for direct LiDAR-based odometry, supporting integration of one or multiple LiDARs and an IMU. We conduct extensive real-world benchmarking based on public datasets and own experiments, covering aerial, wheeled, legged, and wearable platforms operating in indoor, urban, wild environments with diverse LiDARs. RESPLE-based solutions achieve superior estimation accuracy and robustness over corresponding state-of-the-art systems, while attaining real-time performance. Notably, our LiDAR-only variant outperforms existing LiDAR-inertial systems in scenarios without significant LiDAR degeneracy, and showing further improvements when additional LiDAR and inertial sensors are incorporated for more challenging conditions. We release the source code and own experimental datasets at https://github.com/ASIG-X/RESPLE .

arxiv情報

著者 Ziyu Cao,William Talbot,Kailai Li
発行日 2025-04-15 19:56:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | RESPLE: Recursive Spline Estimation for LiDAR-Based Odometry はコメントを受け付けていません

Doppler-SLAM: Doppler-Aided Radar-Inertial and LiDAR-Inertial Simultaneous Localization and Mapping

要約

同時ローカリゼーションとマッピング(SLAM)は、自律システムにとって重要な機能です。
多くの場合、視覚やライダーセンサーに依存する従来のスラムアプローチは、低光や特徴のない環境などの不利な状態で大きな課題に直面しています。
これらの制限を克服するために、4Dレーダー、FMCW LIDAR、および慣性測定ユニットの相補的な強度を活用する、ドップラー支援レーダー介入およびLIDAR介入のスラムフレームワークを提案します。
当社のシステムは、ドップラー速度測定と空間データを、強固なフロントエンドとグラフの最適化バックエンドに統合し、強化されたエゴ速度推定、正確な臭気測定、および堅牢なマッピングを提供します。
また、ドップラーベースのスキャンマッチング手法を導入して、動的環境でのフロントエンドの匂いを改善します。
さらに、当社のフレームワークには、ドップラー速度とループ閉鎖を利用してセンサーアライメントを動的に維持するための革新的なオンライン外因性キャリブレーションメカニズムが組み込まれています。
公共および独自のデータセットの両方での広範な評価は、私たちのシステムが、正確さと堅牢性の観点から、最先端のレーダースラムとライダースラムのフレームワークを大幅に上回ることを示しています。
さらなる研究を奨励するために、ドップラースラムとデータセットのコードは、https://github.com/wayne-dwa/doppler-slamで入手できます。

要約(オリジナル)

Simultaneous localization and mapping (SLAM) is a critical capability for autonomous systems. Traditional SLAM approaches, which often rely on visual or LiDAR sensors, face significant challenges in adverse conditions such as low light or featureless environments. To overcome these limitations, we propose a novel Doppler-aided radar-inertial and LiDAR-inertial SLAM framework that leverages the complementary strengths of 4D radar, FMCW LiDAR, and inertial measurement units. Our system integrates Doppler velocity measurements and spatial data into a tightly-coupled front-end and graph optimization back-end to provide enhanced ego velocity estimation, accurate odometry, and robust mapping. We also introduce a Doppler-based scan-matching technique to improve front-end odometry in dynamic environments. In addition, our framework incorporates an innovative online extrinsic calibration mechanism, utilizing Doppler velocity and loop closure to dynamically maintain sensor alignment. Extensive evaluations on both public and proprietary datasets show that our system significantly outperforms state-of-the-art radar-SLAM and LiDAR-SLAM frameworks in terms of accuracy and robustness. To encourage further research, the code of our Doppler-SLAM and our dataset are available at: https://github.com/Wayne-DWA/Doppler-SLAM.

arxiv情報

著者 Dong Wang,Hannes Haag,Daniel Casado Herraez,Stefan May,Cyrill Stachniss,Andreas Nuechter
発行日 2025-04-15 21:50:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Doppler-SLAM: Doppler-Aided Radar-Inertial and LiDAR-Inertial Simultaneous Localization and Mapping はコメントを受け付けていません