Safe Distributed Control of Multi-Robot Systems with Communication Delays

要約

マルチロボットシステムの安全な動作は、特に海底マッピング用の水中、ナビゲーション用の地下洞窟、アセンブリおよび建設のための地球外のミッションなどの通信統合環境で重要です。
ロボット間で交換された情報が通信遅延を発生させるネットワーク化された自律システムの安全性に対処します。
マルチロボットシステムの分散制御バリア関数の概念を正式に形式化します。マルチロボットシステムは、分散実装に適した安全証明書であり、グラフニューラルネットワークを使用して安全な分散コントローラーを学習するための正式な根拠を提供します。
さらに、遅延を無視する分散コントローラーを学習すると、安全性が深刻に低下する可能性があることがわかります。
最終的に、近くのロボットの現在の状態が受信したデータと情報の年齢から予測される通信の遅延の下で、安全な分散コントローラーをトレーニングするための予測因子ベースのフレームワークを提案します。
マルチロボット衝突回避に関する数値実験は、予測因子ベースのアプローチが通信の遅延下で学習された分散コントローラーの安全性を大幅に改善できることを示しています。
ビデオ要約は、https://youtu.be/hcu1ri32spkで入手できます。

要約(オリジナル)

Safe operation of multi-robot systems is critical, especially in communication-degraded environments such as underwater for seabed mapping, underground caves for navigation, and in extraterrestrial missions for assembly and construction. We address safety of networked autonomous systems where the information exchanged between robots incurs communication delays. We formalize a notion of distributed control barrier function for multi-robot systems, a safety certificate amenable to a distributed implementation, which provides formal ground to using graph neural networks to learn safe distributed controllers. Further, we observe that learning a distributed controller ignoring delays can severely degrade safety. We finally propose a predictor-based framework to train a safe distributed controller under communication delays, where the current state of nearby robots is predicted from received data and age-of-information. Numerical experiments on multi-robot collision avoidance show that our predictor-based approach can significantly improve the safety of a learned distributed controller under communication delays. A video abstract is available at https://youtu.be/Hcu1Ri32Spk.

arxiv情報

著者 Luca Ballotta,Rajat Talak
発行日 2025-03-04 10:19:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: (Primary), 68M14, 68T07, 68W15, C.2.4, cs.RO | Safe Distributed Control of Multi-Robot Systems with Communication Delays はコメントを受け付けていません

UAV-VLRR: Vision-Language Informed NMPC for Rapid Response in UAV Search and Rescue

要約

緊急捜索救助(SAR)の操作では、従来の手動ドローン制御が非効率的な複雑な環境で、迅速かつ正確なターゲット識別が必要です。
これらのシナリオに対処するために、この研究では、迅速なSARシステムであるUAV-VLRR(Vision-Language-Rapid-Response)が開発されています。
このシステムは、2つの側面で構成されています。1)視覚言語モデル(VLM)の力(VLM)の力を活用するマルチモーダルシステムと、シーン解釈のためのChATGPT-4O(LLM)の自然言語処理能力。
2)マルチモーダルシステムの出力に従って飛行するためのドローンによる迅速な応答のための障害物回避を備えた非線形モデル予測制御(NMPC)。
この作業は、ドローンがそのミッションを迅速かつ安全な方法で実行できるようにしながら、SARミッションを計画するためにオペレーターにより直感的で自然なアプローチを提供することにより、緊急SAR操作の応答時間を改善することを目的としています。
テストしたとき、私たちのアプローチは、既製のオートパイロットと比較した場合、平均で33.75%、人間のパイロットと比較した場合は54.6%でした。
uav-vlrrのビデオ:https://youtu.be/kjqqgkkt1xy

要約(オリジナル)

Emergency search and rescue (SAR) operations often require rapid and precise target identification in complex environments where traditional manual drone control is inefficient. In order to address these scenarios, a rapid SAR system, UAV-VLRR (Vision-Language-Rapid-Response), is developed in this research. This system consists of two aspects: 1) A multimodal system which harnesses the power of Visual Language Model (VLM) and the natural language processing capabilities of ChatGPT-4o (LLM) for scene interpretation. 2) A non-linearmodel predictive control (NMPC) with built-in obstacle avoidance for rapid response by a drone to fly according to the output of the multimodal system. This work aims at improving response times in emergency SAR operations by providing a more intuitive and natural approach to the operator to plan the SAR mission while allowing the drone to carry out that mission in a rapid and safe manner. When tested, our approach was faster on an average by 33.75% when compared with an off-the-shelf autopilot and 54.6% when compared with a human pilot. Video of UAV-VLRR: https://youtu.be/KJqQGKKt1xY

arxiv情報

著者 Yasheerah Yaqoot,Muhammad Ahsan Mustafa,Oleg Sautenkov,Dzmitry Tsetserukou
発行日 2025-03-04 10:21:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | UAV-VLRR: Vision-Language Informed NMPC for Rapid Response in UAV Search and Rescue はコメントを受け付けていません

Equivariant Filter for Tightly Coupled LiDAR-Inertial Odometry

要約

ポーズ推定は、同時ローカリゼーションとマッピング(SLAM)の重要な問題です。
ただし、従来の拡張カルマンフィルター(EKF)がモデルの非線形性を処理するのに苦労しているため、特に慣性測定ユニット(IMU)および光検出と範囲(LIDAR)(LIDAR)であるため、堅牢で一貫した状態推定器を開発することは、依然として重要な課題です。
ポーズ推定の一貫した効率的なソリューションを提供するために、Equivariantフィルター(EQF)に基づいて厳密に結合したLIOシステムの堅牢な状態推定器であるEQ-LIOを提案します。
$ \ se_2(3)$グループ構造に基づいた不変のカルマンフィルターと比較して、EQFは半方向の製品グループの対称性を使用して、IMUバイアス、ナビゲーション状態、およびライダー外因性カリブル状態を含むシステム状態を結合し、それによって線形化誤差を抑制し、予期しない状態変化のイベントの推定器の挙動を改善します。
提案されたEQ-LIOは、自然な一貫性とより高い堅牢性を所有しています。これは、理論的には数学的派生で証明され、パブリックデータセットとプライベートデータセットの両方で一連のテストを通じて実験的に検証されています。

要約(オリジナル)

Pose estimation is a crucial problem in simultaneous localization and mapping (SLAM). However, developing a robust and consistent state estimator remains a significant challenge, as the traditional extended Kalman filter (EKF) struggles to handle the model nonlinearity, especially for inertial measurement unit (IMU) and light detection and ranging (LiDAR). To provide a consistent and efficient solution of pose estimation, we propose Eq-LIO, a robust state estimator for tightly coupled LIO systems based on an equivariant filter (EqF). Compared with the invariant Kalman filter based on the $\SE_2(3)$ group structure, the EqF uses the symmetry of the semi-direct product group to couple the system state including IMU bias, navigation state and LiDAR extrinsic calibration state, thereby suppressing linearization error and improving the behavior of the estimator in the event of unexpected state changes. The proposed Eq-LIO owns natural consistency and higher robustness, which is theoretically proven with mathematical derivation and experimentally verified through a series of tests on both public and private datasets.

arxiv情報

著者 Anbo Tao,Yarong Luo,Chunxi Xia,Chi Guo,Xingxing Li
発行日 2025-03-04 10:38:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Equivariant Filter for Tightly Coupled LiDAR-Inertial Odometry はコメントを受け付けていません

Night-Voyager: Consistent and Efficient Nocturnal Vision-Aided State Estimation in Object Maps

要約

夜間の正確で堅牢な状態推定は、自律的なロボットナビゲーションが夜行性または丸いタスクを達成するために不可欠です。
直感的な疑問が生じます:低コストの標準カメラは、夜行性の状態の推定のために活用できますか?
残念ながら、ほとんどの既存の視覚的手法は、積極的な照明や画像の強化があっても、有害な照明条件下で失敗する可能性があります。
しかし、極めて重要な洞察は、ほとんどの都市のシナリオでの街灯は、夜間に安定した顕著な事前の視覚的な手がかりとして機能し、星間ナビゲーションの宇宙船の航海を支援する深海の星を連想させることです。
これに触発されて、私たちは、多用途のローカリゼーションのために以前のオブジェクトマップとキーポイントを活用するオブジェクトレベルの夜行性視力支援状態推定フレームワークであるNight-Voyagerを提案します。
また、照明条件の低下下での従来の視覚法の主な制限は、ピクセルレベルのメトリックへの依存に起因することがわかります。
対照的に、メトリック非ピクセルレベルのオブジェクト検出は、ピクセルレベルとオブジェクトレベルのスペースの間のブリッジとして機能し、システム内のオブジェクトマップ情報の効果的な伝播と利用を可能にします。
Night-Voyagerは、グローバルなローカリゼーションの問題を解決するための迅速な初期化から始まります。
効果的な2段階のクロスモーダルデータアソシエーションを採用することにより、このシステムは、マップベースの観測を使用してグローバルに一貫した状態更新を提供します。
夜間の視覚観測における重要な不確実性の課題に対処するために、新しいマトリックスLieグループの定式化と特徴が分類されたマルチステート不変フィルターが導入され、一貫した効率的な推定が確保されます。
シミュレーションと多様な現実世界のシナリオ(約12.3 kmにまたがる)の両方で包括的な実験を通じて、夜のヴォーヤガーはその有効性、堅牢性、効率性を紹介し、夜行性視力支援状態の推定で重要なギャップを埋めます。

要約(オリジナル)

Accurate and robust state estimation at nighttime is essential for autonomous robotic navigation to achieve nocturnal or round-the-clock tasks. An intuitive question arises: Can low-cost standard cameras be exploited for nocturnal state estimation? Regrettably, most existing visual methods may fail under adverse illumination conditions, even with active lighting or image enhancement. A pivotal insight, however, is that streetlights in most urban scenarios act as stable and salient prior visual cues at night, reminiscent of stars in deep space aiding spacecraft voyage in interstellar navigation. Inspired by this, we propose Night-Voyager, an object-level nocturnal vision-aided state estimation framework that leverages prior object maps and keypoints for versatile localization. We also find that the primary limitation of conventional visual methods under poor lighting conditions stems from the reliance on pixel-level metrics. In contrast, metric-agnostic, non-pixel-level object detection serves as a bridge between pixel-level and object-level spaces, enabling effective propagation and utilization of object map information within the system. Night-Voyager begins with a fast initialization to solve the global localization problem. By employing an effective two-stage cross-modal data association, the system delivers globally consistent state updates using map-based observations. To address the challenge of significant uncertainties in visual observations at night, a novel matrix Lie group formulation and a feature-decoupled multi-state invariant filter are introduced, ensuring consistent and efficient estimation. Through comprehensive experiments in both simulation and diverse real-world scenarios (spanning approximately 12.3 km), Night-Voyager showcases its efficacy, robustness, and efficiency, filling a critical gap in nocturnal vision-aided state estimation.

arxiv情報

著者 Tianxiao Gao,Mingle Zhao,Chengzhong Xu,Hui Kong
発行日 2025-03-04 10:53:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Night-Voyager: Consistent and Efficient Nocturnal Vision-Aided State Estimation in Object Maps はコメントを受け付けていません

ROCKET-2: Steering Visuomotor Policy via Cross-View Goal Alignment

要約

私たちは、人間のユーザーが具体化された環境でエージェントの相互作用を導くために、意味的に明確で空間的に敏感で、直感的な目標仕様方法を開発することを目指しています。
具体的には、ユーザーがエージェントの観測ではなく、独自のカメラビューからセグメンテーションマスクを使用してターゲットオブジェクトを指定できる新しいクロスビュー目標アライメントフレームワークを提案します。
クローニングだけで、人間とエージェントのカメラのビューが大きく異なる場合、エージェントの行動を人間の意図に合わせることができないことを強調します。
これに対処するために、2つの補助目的を紹介します。クロスビューの一貫性の損失とターゲットの可視性損失を紹介します。これにより、エージェントの空間推論能力が明示的に向上します。
According to this, we develop ROCKET-2, a state-of-the-art agent trained in Minecraft, achieving an improvement in the efficiency of inference 3x to 6x.
Rocket-2は、人間のカメラビューから初めて目標を直接解釈できることを示しており、より良い人間と相互作用のための道を開いています。

要約(オリジナル)

We aim to develop a goal specification method that is semantically clear, spatially sensitive, and intuitive for human users to guide agent interactions in embodied environments. Specifically, we propose a novel cross-view goal alignment framework that allows users to specify target objects using segmentation masks from their own camera views rather than the agent’s observations. We highlight that behavior cloning alone fails to align the agent’s behavior with human intent when the human and agent camera views differ significantly. To address this, we introduce two auxiliary objectives: cross-view consistency loss and target visibility loss, which explicitly enhance the agent’s spatial reasoning ability. According to this, we develop ROCKET-2, a state-of-the-art agent trained in Minecraft, achieving an improvement in the efficiency of inference 3x to 6x. We show ROCKET-2 can directly interpret goals from human camera views for the first time, paving the way for better human-agent interaction.

arxiv情報

著者 Shaofei Cai,Zhancun Mu,Anji Liu,Yitao Liang
発行日 2025-03-04 11:16:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO | ROCKET-2: Steering Visuomotor Policy via Cross-View Goal Alignment はコメントを受け付けていません

Impact of Temporal Delay on Radar-Inertial Odometry

要約

正確なエゴモーション推定は、自律システムの重要なコンポーネントです。
カメラやリダーなどの従来のエゴモーションセンサーは、霧、大雨、ほこりなどの不利な環境条件で妥協する可能性があります。
そのような条件への堅牢性で知られる自動車レーダーは、補完的なセンサーまたはエゴモーション推定フレームワーク内の有望な代替品としての地位を示しています。
このペーパーでは、自動車レーダーと慣性測定ユニットを統合する新しいレーダー介入臭気(RIO)システムを提案します。
重要な貢献は、レーダーとIMU測定の間の潜在的な時間オフセットを補う因子グラフ最適化フレームワーク内のオンライン時間遅延キャリブレーションの統合です。
提案されたアプローチを検証するために、実際のレーダーとIMUデータに関する徹底的な実験分析を実施しました。
結果は、スキャンマッチングまたはターゲット追跡がなくても、オンライン時間キャリブレーションの統合により、時間同期を無視するシステムと比較してローカリゼーションエラーが大幅に減少し、したがって、自律ナビゲーションのためのレーダーベースのセンサー融合システムにおけるしばしば無視される正確な時間的アライメントの重要な役割を強調することを示しています。

要約(オリジナル)

Accurate ego-motion estimation is a critical component of any autonomous system. Conventional ego-motion sensors, such as cameras and LiDARs, may be compromised in adverse environmental conditions, such as fog, heavy rain, or dust. Automotive radars, known for their robustness to such conditions, present themselves as complementary sensors or a promising alternative within the ego-motion estimation frameworks. In this paper we propose a novel Radar-Inertial Odometry (RIO) system that integrates an automotive radar and an inertial measurement unit. The key contribution is the integration of online temporal delay calibration within the factor graph optimization framework that compensates for potential time offsets between radar and IMU measurements. To validate the proposed approach we have conducted thorough experimental analysis on real-world radar and IMU data. The results show that, even without scan matching or target tracking, integration of online temporal calibration significantly reduces localization error compared to systems that disregard time synchronization, thus highlighting the important role of, often neglected, accurate temporal alignment in radar-based sensor fusion systems for autonomous navigation.

arxiv情報

著者 Vlaho-Josip Štironja,Luka Petrović,Juraj Peršić,Ivan Marković,Ivan Petrović
発行日 2025-03-04 11:19:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Impact of Temporal Delay on Radar-Inertial Odometry はコメントを受け付けていません

Magic in Human-Robot Interaction (HRI)

要約

「魔法」は、モバイルバブルマシンが与えられた「魔法の瞬間」から子供たちを楽しませてやる気を起こさせる「呪文」まで、ロボティクスの文献であちこちで言及されていますが、この概念はデザイナーにとって何を意味するのでしょうか?
ここでは、(1)魔法が文献のレビューに基づいて相互作用デザインにどのように情報を提供できるかについてのいくつかの理論的議論を示し、次に(2)そのようなアイデアを使用して、国際的なロボットマジックコンペティションで賞を受賞した単純化されたプロトタイプを開発する実用的な説明が続きます。
このトピックは異常と見なされ、いくつかの否定的な意味合いが存在する可能性がありますが(例えば、非現実的な思考は魔法と呼ぶことができます)、我々の結果は、経験的、超自然的、および用語の幻想的な感覚における魔法が、ホームアシスタントや自律的な車両のようなアーティファクトのようなアーティファクトのようなアーティファクトのために、さまざまなロボットのデザインのコンテキストでも考慮するのに役立つ可能性があることを示唆しているようです。

要約(オリジナル)

‘Magic’ is referred to here and there in the robotics literature, from ‘magical moments’ afforded by a mobile bubble machine, to ‘spells’ intended to entertain and motivate children–but what exactly could this concept mean for designers? Here, we present (1) some theoretical discussion on how magic could inform interaction designs based on reviewing the literature, followed by (2) a practical description of using such ideas to develop a simplified prototype, which received an award in an international robot magic competition. Although this topic can be considered unusual and some negative connotations exist (e.g., unrealistic thinking can be referred to as magical), our results seem to suggest that magic, in the experiential, supernatural, and illusory senses of the term, could be useful to consider in various robot design contexts, also for artifacts like home assistants and autonomous vehicles–thus, inviting further discussion and exploration.

arxiv情報

著者 Martin Cooney,Alexey Vinel
発行日 2025-03-04 11:36:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Magic in Human-Robot Interaction (HRI) はコメントを受け付けていません

A Multi-Sensor Fusion Approach for Rapid Orthoimage Generation in Large-Scale UAV Mapping

要約

無人航空機(UAV)からの大規模なオルソイメージの急速な生成は、航空マッピングの分野で長年の研究の焦点となっています。
グローバルポジショニングシステム(GPS)、慣性測定ユニット(IMU)、4Dミリ波レーダー、カメラを統合するマルチセンサーUAVシステムは、この問題の効果的な解決策を提供できます。
このホワイトペーパーでは、マルチセンサーデータを利用して、時間性能、システムの堅牢性、および地理的参照精度の観点から、従来のオルソイメージ生成方法の制限を克服します。
一致する速度と精度を高め、必要な機能の数を削減し、運動(SFM)プロセスの構造の正確な参照を提供するために、事前に最適化された機能マッチング方法が導入されています。
提案された方法は、機能のマッチングが難しい農地のような低テクスチャシーンで堅牢性を示します。
実験では、私たちのアプローチが短時間で正確な機能を一致させる正確な機能を達成することを示しています。
提案されたドローンシステムは、農地の検出と管理を効果的に支援します。

要約(オリジナル)

Rapid generation of large-scale orthoimages from Unmanned Aerial Vehicles (UAVs) has been a long-standing focus of research in the field of aerial mapping. A multi-sensor UAV system, integrating the Global Positioning System (GPS), Inertial Measurement Unit (IMU), 4D millimeter-wave radar and camera, can provide an effective solution to this problem. In this paper, we utilize multi-sensor data to overcome the limitations of conventional orthoimage generation methods in terms of temporal performance, system robustness, and geographic reference accuracy. A prior-pose-optimized feature matching method is introduced to enhance matching speed and accuracy, reducing the number of required features and providing precise references for the Structure from Motion (SfM) process. The proposed method exhibits robustness in low-texture scenes like farmlands, where feature matching is difficult. Experiments show that our approach achieves accurate feature matching orthoimage generation in a short time. The proposed drone system effectively aids in farmland detection and management.

arxiv情報

著者 Jialei He,Zhihao Zhan,Zhituo Tu,Xiang Zhu,Jie Yuan
発行日 2025-03-04 11:59:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO, eess.IV | A Multi-Sensor Fusion Approach for Rapid Orthoimage Generation in Large-Scale UAV Mapping はコメントを受け付けていません

Do Visual-Language Grid Maps Capture Latent Semantics?

要約

視覚言語モデル(VLM)は最近、マップ内のセマンティクスを表すためにVLMの潜在表現、つまり埋め込みを使用してロボットマッピングで導入されました。
彼らは、限られた人間が作成したラベルのセットから、複雑な現実世界環境で動作し、人間と対話する際にロボットに非常に役立つ、人間が作成したラベルのオープンボキャブラリーシーンの理解に移行することを可能にします。
この方法で構築されたマップがナビゲーションなどの下流タスクをサポートしているという逸話的な証拠がありますが、これらの埋め込みを使用したマップの品質の厳密な分析が欠落しています。
この論文では、VLMSを使用して作成されたマップの品質を分析する方法を提案します。
マップの品質の2つの重要な特性という2つの重要な特性を調査します。クエリ性と明確さです。
クエリ性の評価は、埋め込みから情報を取得する機能に対処します。
マップ内の明確さを調査して、抽象的なセマンティッククラスを表し、表現の一般化特性を評価するための抽象的なセマンティッククラスを表現し、マップをインターマップする能力を研究します。
これらのプロパティを評価し、2つのエンコーダー、LSEGとOpensegを使用して、MatterPort3Dデータセットの実際のデータを使用して、2つの最先端のマッピング方法、VLMAPとOpenSceneを評価するメトリックを提案します。
私たちの調査結果は、3D機能がクエリ性を改善する一方で、それらはスケール不変ではないのに対し、画像ベースの埋め込みは複数のマップ解像度に一般化することを示しています。
これにより、画像ベースのメソッドがより小さなマップサイズを維持することができます。これは、実際の展開でこれらの方法を使用するために重要です。
さらに、エンコーダーの選択が結果に影響を与えることを示します。
結果は、適切にしきい値を適切にしきい値にすることがオープンな問題であることを意味します。

要約(オリジナル)

Visual-language models (VLMs) have recently been introduced in robotic mapping using the latent representations, i.e., embeddings, of the VLMs to represent semantics in the map. They allow moving from a limited set of human-created labels toward open-vocabulary scene understanding, which is very useful for robots when operating in complex real-world environments and interacting with humans. While there is anecdotal evidence that maps built this way support downstream tasks, such as navigation, rigorous analysis of the quality of the maps using these embeddings is missing. In this paper, we propose a way to analyze the quality of maps created using VLMs. We investigate two critical properties of map quality: queryability and distinctness. The evaluation of queryability addresses the ability to retrieve information from the embeddings. We investigate intra-map distinctness to study the ability of the embeddings to represent abstract semantic classes and inter-map distinctness to evaluate the generalization properties of the representation. We propose metrics to evaluate these properties and evaluate two state-of-the-art mapping methods, VLMaps and OpenScene, using two encoders, LSeg and OpenSeg, using real-world data from the Matterport3D data set. Our findings show that while 3D features improve queryability, they are not scale invariant, whereas image-based embeddings generalize to multiple map resolutions. This allows the image-based methods to maintain smaller map sizes, which can be crucial for using these methods in real-world deployments. Furthermore, we show that the choice of the encoder has an effect on the results. The results imply that properly thresholding open-vocabulary queries is an open problem.

arxiv情報

著者 Matti Pekkanen,Tsvetomila Mihaylova,Francesco Verdoja,Ville Kyrki
発行日 2025-03-04 12:17:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Do Visual-Language Grid Maps Capture Latent Semantics? はコメントを受け付けていません

World Models for Anomaly Detection during Model-Based Reinforcement Learning Inference

要約

学習ベースのコントローラーは、多くの場合、安全性と信頼性に関する懸念のため、意図的に実際のアプリケーションから守られています。
モデルベースの強化学習における最先端の世界モデルを、トレーニングフェーズを超えて利用して、展開されたポリシーが十分に慣れ親しんでいる状態空間の地域内でのみ動作するようにする方法を探ります。
これは、世界モデルの予測と推論中に観察されたシステムの挙動との間の矛盾を継続的に監視することによって達成されます。
エラーのしきい値が上がると、緊急停止などの適切な測定をトリガーできます。
これには、タスク固有の知識は必要ありません。したがって、普遍的に適用可能です。
確立されたロボット制御タスクに関するシミュレートされた実験は、この方法の有効性を示し、ローカルロボットのジオメトリとグローバルな重力の大きさの変化を認識しています。
アジャイルクワッドコプターを使用した実際の実験は、車両に作用する予期しない力を検出することにより、このアプローチの利点をさらに示しています。
これらの結果は、新規および不利な条件でさえ、そうでなければ予測不可能な学習ベースのコントローラーの安全で信頼できる操作を達成する方法を示しています。

要約(オリジナル)

Learning-based controllers are often purposefully kept out of real-world applications due to concerns about their safety and reliability. We explore how state-of-the-art world models in Model-Based Reinforcement Learning can be utilized beyond the training phase to ensure a deployed policy only operates within regions of the state-space it is sufficiently familiar with. This is achieved by continuously monitoring discrepancies between a world model’s predictions and observed system behavior during inference. It allows for triggering appropriate measures, such as an emergency stop, once an error threshold is surpassed. This does not require any task-specific knowledge and is thus universally applicable. Simulated experiments on established robot control tasks show the effectiveness of this method, recognizing changes in local robot geometry and global gravitational magnitude. Real-world experiments using an agile quadcopter further demonstrate the benefits of this approach by detecting unexpected forces acting on the vehicle. These results indicate how even in new and adverse conditions, safe and reliable operation of otherwise unpredictable learning-based controllers can be achieved.

arxiv情報

著者 Fabian Domberg,Georg Schildbach
発行日 2025-03-04 12:25:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | World Models for Anomaly Detection during Model-Based Reinforcement Learning Inference はコメントを受け付けていません