LAMARL: LLM-Aided Multi-Agent Reinforcement Learning for Cooperative Policy Generation

要約

マルチエージェント強化学習(MARL)は複雑なマルチロボットタスクに有効であるが、サンプル効率が低く、手動による報酬チューニングを繰り返す必要がある。大規模言語モデル(Large Language Models: LLM)はシングルロボットでは有望であるが、マルチロボットシステムへの応用はほとんど未開拓である。本論文では、MARLとLLMを統合し、手動で設計することなくサンプル効率を大幅に向上させる、新しいLLM-Aided MARL(LAMARL)アプローチを紹介する。LAMARLは2つのモジュールから構成され、1つ目のモジュールはLLMを活用して事前ポリシーと報酬関数の生成を完全に自動化する。2つ目のモジュールはMARLであり、生成された関数を用いてロボットのポリシー学習を効率的にガイドする。形状組立ベンチマークにおいて、シミュレーションと実世界実験の両方がLAMARLのユニークな利点を実証している。アブレーション研究では、事前ポリシーがサンプル効率を平均185.9%改善し、タスク完了を向上させる一方、思考連鎖(CoT)と基本APIに基づく構造化プロンプトがLLM出力成功率を28.5%~67.5%改善することが示された。ビデオとコードはhttps://windylab.github.io/LAMARL/。

要約(オリジナル)

Although Multi-Agent Reinforcement Learning (MARL) is effective for complex multi-robot tasks, it suffers from low sample efficiency and requires iterative manual reward tuning. Large Language Models (LLMs) have shown promise in single-robot settings, but their application in multi-robot systems remains largely unexplored. This paper introduces a novel LLM-Aided MARL (LAMARL) approach, which integrates MARL with LLMs, significantly enhancing sample efficiency without requiring manual design. LAMARL consists of two modules: the first module leverages LLMs to fully automate the generation of prior policy and reward functions. The second module is MARL, which uses the generated functions to guide robot policy training effectively. On a shape assembly benchmark, both simulation and real-world experiments demonstrate the unique advantages of LAMARL. Ablation studies show that the prior policy improves sample efficiency by an average of 185.9% and enhances task completion, while structured prompts based on Chain-of-Thought (CoT) and basic APIs improve LLM output success rates by 28.5%-67.5%. Videos and code are available at https://windylab.github.io/LAMARL/

arxiv情報

著者 Guobin Zhu,Rui Zhou,Wenkang Ji,Shiyu Zhao
発行日 2025-06-03 07:53:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.RO | LAMARL: LLM-Aided Multi-Agent Reinforcement Learning for Cooperative Policy Generation はコメントを受け付けていません

BEVCALIB: LiDAR-Camera Calibration via Geometry-Guided Bird’s-Eye View Representations

要約

正確なLiDAR-カメラキャリブレーションは、自律走行やロボットシステムにおいてマルチモーダル知覚を融合するための基本である。従来のキャリブレーション手法では、制御された環境下での大規模なデータ収集が必要であり、車両/ロボットの移動中の変換変化を補正することができません。本論文では、鳥瞰図(BEV)特徴を用いて、生データからLiDARカメラキャリブレーションを行う初のモデル(BEVCALIBと呼ぶ)を提案する。これを実現するために、カメラのBEV特徴とLiDARのBEV特徴を別々に抽出し、それらを共有BEV特徴空間に融合します。BEV特徴からの幾何学的情報を十分に活用するために、変換デコーダにおいて最も重要な特徴をフィルタリングする新しい特徴セレクタを導入し、メモリ消費を削減し、効率的な学習を可能にする。KITTI、NuScenes、および我々のデータセットを用いた広範な評価により、BEVCALIBが新たな技術水準を確立したことが実証された。様々なノイズ条件下で、BEVCALIBはKITTIデータセットでは平均(47.08%, 82.32%)、NuScenesデータセットでは平均(78.17%, 68.29%)、それぞれ(平行移動, 回転)の点で文献中の最良のベースラインを上回る。オープンソースの領域では、再現可能な最良のベースラインを1桁改善します。我々のコードとデモ結果はhttps://cisl.ucr.edu/BEVCalib。

要約(オリジナル)

Accurate LiDAR-camera calibration is fundamental to fusing multi-modal perception in autonomous driving and robotic systems. Traditional calibration methods require extensive data collection in controlled environments and cannot compensate for the transformation changes during the vehicle/robot movement. In this paper, we propose the first model that uses bird’s-eye view (BEV) features to perform LiDAR camera calibration from raw data, termed BEVCALIB. To achieve this, we extract camera BEV features and LiDAR BEV features separately and fuse them into a shared BEV feature space. To fully utilize the geometric information from the BEV feature, we introduce a novel feature selector to filter the most important features in the transformation decoder, which reduces memory consumption and enables efficient training. Extensive evaluations on KITTI, NuScenes, and our own dataset demonstrate that BEVCALIB establishes a new state of the art. Under various noise conditions, BEVCALIB outperforms the best baseline in the literature by an average of (47.08%, 82.32%) on KITTI dataset, and (78.17%, 68.29%) on NuScenes dataset, in terms of (translation, rotation), respectively. In the open-source domain, it improves the best reproducible baseline by one order of magnitude. Our code and demo results are available at https://cisl.ucr.edu/BEVCalib.

arxiv情報

著者 Weiduo Yuan,Jerry Li,Justin Yue,Divyank Shah,Konstantinos Karydis,Hang Qiu
発行日 2025-06-03 08:07:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.RO | BEVCALIB: LiDAR-Camera Calibration via Geometry-Guided Bird’s-Eye View Representations はコメントを受け付けていません

A Hybrid Approach to Indoor Social Navigation: Integrating Reactive Local Planning and Proactive Global Planning

要約

ここでは、ロボットが、自由に動き回る人間と衝突することなく、できるだけ早くゴール地点に到達しなければならない。様々な群衆密度、予測不可能な人間の行動、屋内空間の制約などの要因が、ナビゲーションタスクに大きな複雑さを加えるため、より高度なアプローチが必要となる。我々は、古典的手法と深層強化学習(Deep Reinforcement Learning: DRL)の両方の長所を活用したモジュラーナビゲーションフレームワークを提案する。本アプローチでは、グローバルプランナーを用いてウェイポイントを生成し、予測される歩行者の位置周辺にソフトコストを割り当てることで、将来起こりうる人間の位置周辺への注意を促す。同時に、DRLによるローカル・プランナーが、衝突を回避しながらこれらのウェイポイントを追跡する。これらのプランナーを組み合わせることで、エージェントは複雑な操縦を行い、混雑した制約のある環境を効果的にナビゲートし、信頼性を向上させることができる。ソーシャルナビゲーションに関する既存の研究の多くは、単純化された環境やオープンな環境で実施されており、複雑な実環境において学習済みモデルが優れたパフォーマンスを発揮することは限られている。この分野の研究を前進させるために、屋内環境におけるソーシャルナビゲーション戦略の開発とテストを容易にするように設計された新しい2Dベンチマークを紹介する。我々の手法を従来のナビゲーション戦略とRLベースのナビゲーション戦略に対してベンチマークを行い、我々の手法が両者を凌駕することを実証する。

要約(オリジナル)

We consider the problem of indoor building-scale social navigation, where the robot must reach a point goal as quickly as possible without colliding with humans who are freely moving around. Factors such as varying crowd densities, unpredictable human behavior, and the constraints of indoor spaces add significant complexity to the navigation task, necessitating a more advanced approach. We propose a modular navigation framework that leverages the strengths of both classical methods and deep reinforcement learning (DRL). Our approach employs a global planner to generate waypoints, assigning soft costs around anticipated pedestrian locations, encouraging caution around potential future positions of humans. Simultaneously, the local planner, powered by DRL, follows these waypoints while avoiding collisions. The combination of these planners enables the agent to perform complex maneuvers and effectively navigate crowded and constrained environments while improving reliability. Many existing studies on social navigation are conducted in simplistic or open environments, limiting the ability of trained models to perform well in complex, real-world settings. To advance research in this area, we introduce a new 2D benchmark designed to facilitate development and testing of social navigation strategies in indoor environments. We benchmark our method against traditional and RL-based navigation strategies, demonstrating that our approach outperforms both.

arxiv情報

著者 Arnab Debnath,Gregory J. Stein,Jana Kosecka
発行日 2025-06-03 08:12:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO | A Hybrid Approach to Indoor Social Navigation: Integrating Reactive Local Planning and Proactive Global Planning はコメントを受け付けていません

Multi Layered Autonomy and AI Ecologies in Robotic Art Installations

要約

バオヤン・チェンによる大規模なインスタレーション「Symbiosis of Agents」は、AIを駆使したロボットを鏡張りの没入型アリーナに組み込み、機械の意志と芸術的な作家性の間の緊張を探る。初期のサイバネティクス、ルールに基づいたコンセプチュアル・アート、そしてロボットの代表的な作品を引用し、ロボットアーム、四足歩行マシン、環境、そして一般の人々の間で流動的な交流が行われる。ミクロ・レベルの適応戦術、メゾ・レベルの物語駆動、そしてマクロ・レベルの最高指令。このヒエラルキーによって、環境からの合図や観客の呼吸にさえ反応して行動が有機的に進化し、観客をドラマ展開の共同制作者にする。疎外された労働力の歴史的搾取を想起させる投機的なテラフォーミング・シナリオに縁取られたこの作品は、AIが介在する未来において誰が責任を負うのかを問う。振り付けされた動き、AIが生成した台本、反応する照明、漂う霧は、ロボットを道具としてではなく、協力者として投影し、生きた創発的な作品を作り上げている。国際的に展示される「Symbiosis of Agents」は、サイバネティック・フィードバック、ロボットによる実験、コンセプチュアルなルールメイキングが、現代アートにおけるエージェンシー、作家性、倫理を再定義するために、どのように収束しうるかを示している。

要約(オリジナル)

Symbiosis of Agents is a large-scale installation by Baoyang Chen that embeds AI-driven robots in an immersive, mirror-lined arena, probing the tension between machine agency and artistic authorship. Drawing on early cybernetics, rule-based conceptual art, and seminal robotic works, it orchestrates fluid exchanges among robotic arms, quadruped machines, their environment, and the public. A three tier faith system pilots the ecology: micro-level adaptive tactics, meso-level narrative drives, and a macro-level prime directive. This hierarchy lets behaviors evolve organically in response to environmental cues and even a viewer’s breath, turning spectators into co-authors of the unfolding drama.Framed by a speculative terraforming scenario that recalls the historical exploitation of marginalized labor, the piece asks who bears responsibility in AI-mediated futures. Choreographed motion, AI-generated scripts, reactive lighting, and drifting fog cast the robots as collaborators rather than tools, forging a living, emergent artwork. Exhibited internationally, Symbiosis of Agents shows how cybernetic feedback, robotic experimentation, and conceptual rule-making can converge to redefine agency, authorship, and ethics in contemporary art.

arxiv情報

著者 Baoyang Chen,Xian Xu,Huamin Qu
発行日 2025-06-03 08:28:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.RO | Multi Layered Autonomy and AI Ecologies in Robotic Art Installations はコメントを受け付けていません

Rodrigues Network for Learning Robot Actions

要約

ロボットの学習において、多関節動作の理解と予測は重要である。しかし、MLPやTransformerのような一般的なアーキテクチャには、多関節システムの基本的な運動学的構造を反映する帰納的バイアスが欠けている。このため、我々はニューラル・ロドリゲス演算子を提案する。この演算子は、古典的な順運動学演算の学習可能な一般化であり、運動学を考慮した誘導バイアスをニューラル計算に注入するように設計されている。このロドリゲス演算子を基に、動作処理に特化した新しい神経アーキテクチャであるロドリゲスネットワーク(RodriNet)を設計する。我々は、運動学的および動作予測に関する2つの合成タスクにおいて、我々のネットワークの表現力を評価し、標準的なバックボーンと比較して有意な改善を示した。さらに、2つの現実的なアプリケーションにおいて、その有効性を実証する:(i)拡散ポリシーを用いたロボットベンチマークにおける模倣学習、(ii)単一画像の3Dハンド再構築。我々の結果は、構造化された運動学的事前分布をネットワークアーキテクチャに統合することで、様々な領域における行動学習が改善されることを示唆している。

要約(オリジナル)

Understanding and predicting articulated actions is important in robot learning. However, common architectures such as MLPs and Transformers lack inductive biases that reflect the underlying kinematic structure of articulated systems. To this end, we propose the Neural Rodrigues Operator, a learnable generalization of the classical forward kinematics operation, designed to inject kinematics-aware inductive bias into neural computation. Building on this operator, we design the Rodrigues Network (RodriNet), a novel neural architecture specialized for processing actions. We evaluate the expressivity of our network on two synthetic tasks on kinematic and motion prediction, showing significant improvements compared to standard backbones. We further demonstrate its effectiveness in two realistic applications: (i) imitation learning on robotic benchmarks with the Diffusion Policy, and (ii) single-image 3D hand reconstruction. Our results suggest that integrating structured kinematic priors into the network architecture improves action learning in various domains.

arxiv情報

著者 Jialiang Zhang,Haoran Geng,Yang You,Congyue Deng,Pieter Abbeel,Jitendra Malik,Leonidas Guibas
発行日 2025-06-03 08:34:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.RO | Rodrigues Network for Learning Robot Actions はコメントを受け付けていません

HORUS: A Mixed Reality Interface for Managing Teams of Mobile Robots

要約

複合現実感(MR)インタフェースは、移動ロボットの制御のために広く研究されているが、ロボットのチーム管理への応用に関する研究は限られている。本稿ではHORUSを紹介する:HORUS: Holistic Operational Reality for Unified Systems)は、複数の移動ロボットを同時に管理するための包括的なツール群を提供する複合現実感インタフェースである。HORUSにより、オペレータはミニマップ(地上局)から、個々のロボットの状態を監視し、リアルタイムに投影されるセンサデータを可視化し、単一のロボット、チームのサブセット、またはグループ全体にタスクを割り当てることができる。また、ミニマップ上のロボットモデルとその変形を観察しながら遠隔操作を行うミニマップモードと、シングルビューまたはステレオビュー(3D)のいずれかでフラットなスクリーンのようなビューを提供するセミインマーシブモードという、異なる遠隔操作モードを提供する。我々は、参加者がHORUSを使用して、捜索や救助作業をシミュレートし、環境内の手がかりを見つけるというタスクを課された移動ロボットのチームを管理するユーザー研究を実施した。この研究では、HORUSの完全なチーム管理機能と個々のロボットの遠隔操作機能を比較した。この実験により、複数ロボットの協調におけるHORUSの汎用性と有効性が検証され、ダイナミックなチームベースの環境における人間とロボットの協調を促進する可能性が示された。

要約(オリジナル)

Mixed Reality (MR) interfaces have been extensively explored for controlling mobile robots, but there is limited research on their application to managing teams of robots. This paper presents HORUS: Holistic Operational Reality for Unified Systems, a Mixed Reality interface offering a comprehensive set of tools for managing multiple mobile robots simultaneously. HORUS enables operators to monitor individual robot statuses, visualize sensor data projected in real time, and assign tasks to single robots, subsets of the team, or the entire group, all from a Mini-Map (Ground Station). The interface also provides different teleoperation modes: a mini-map mode that allows teleoperation while observing the robot model and its transform on the mini-map, and a semi-immersive mode that offers a flat, screen-like view in either single or stereo view (3D). We conducted a user study in which participants used HORUS to manage a team of mobile robots tasked with finding clues in an environment, simulating search and rescue tasks. This study compared HORUS’s full-team management capabilities with individual robot teleoperation. The experiments validated the versatility and effectiveness of HORUS in multi-robot coordination, demonstrating its potential to advance human-robot collaboration in dynamic, team-based environments.

arxiv情報

著者 Omotoye Shamsudeen Adekoya,Antonio Sgorbissa,Carmine Tommaso Recchiuto
発行日 2025-06-03 08:38:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.HC, cs.RO | HORUS: A Mixed Reality Interface for Managing Teams of Mobile Robots はコメントを受け付けていません

Cooperative Indoor Exploration Leveraging a Mixed-Size UAV Team with Heterogeneous Sensors

要約

無人航空機(UAV)の異種チームは、様々なUAVの異なる長所や能力を利用することにより、空中ロボットの探査能力を向上させることができる。本論文では、大きさも感覚器も異なるUAVのチームを用いて未知の屋内空間を探索するための新しい手法を提案する。すなわち、ユークリッド距離とUAVの優先度に基づいてPOI(Point of Interest)を割り当てる貪欲戦略と、最小コストフロー問題を解く最適化戦略である。提案手法は、POIのアクセシビリティを評価し、UAV間の衝突回避操作を含む障害物距離を考慮した経路を生成するためにSphereMapアルゴリズムを利用する。提案手法は、シミュレーションテストと、UAVに搭載された手法の性能を評価する実世界実験により検証された。

要約(オリジナル)

Heterogeneous teams of Unmanned Aerial Vehicles (UAVs) can enhance the exploration capabilities of aerial robots by exploiting different strengths and abilities of varying UAVs. This paper presents a novel method for exploring unknown indoor spaces with a team of UAVs of different sizes and sensory equipment. We propose a frontier-based exploration with two task allocation strategies: a greedy strategy that assigns Points of Interest (POIs) based on Euclidean distance and UAV priority and an optimization strategy that solves a minimum-cost flow problem. The proposed method utilizes the SphereMap algorithm to assess the accessibility of the POIs and generate paths that account for obstacle distances, including collision avoidance maneuvers among UAVs. The proposed approach was validated through simulation testing and real-world experiments that evaluated the method’s performance on board the UAVs.

arxiv情報

著者 Michaela Cihlářová,Václav Pritzl,Martin Saska
発行日 2025-06-03 08:47:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO | Cooperative Indoor Exploration Leveraging a Mixed-Size UAV Team with Heterogeneous Sensors はコメントを受け付けていません

Sight Guide: A Wearable Assistive Perception and Navigation System for the Vision Assistance Race in the Cybathlon 2024

要約

視覚障害者は、特に空間認識と意味的な情景理解を必要とするタスクにおいて、未知の状況をナビゲートし、相互作用するという大きな課題に直面している。視覚障害者がこのような課題を解決するための技術の開発を加速し、その状況を評価するために、サイバスロン2024大会の視覚支援レース(VIS)が開催された。本研究では、VISのために設計されたウェアラブル支援システムであるSight Guideを紹介する。このシステムは、複数のRGBカメラと深度カメラからのデータを組み込みコンピュータ上で処理し、振動信号と音声コマンドを使用して、複雑な実世界にインスパイアされたタスクを通じてユーザーをガイドする。我々のソフトウェア・アーキテクチャは、古典的なロボット工学アルゴリズムと学習ベースのアプローチを統合し、障害物回避、物体検出、光学式文字認識、タッチスクリーンとのインタラクションなどの機能を実現している。テスト環境において、サイトガイドは95.7%のタスク成功率を達成し、さらにサイバスロン競技においてその有効性を実証した。この研究は、システム設計、評価結果、得られた教訓に関する詳細な洞察を提供し、より広範な実世界適用に向けた方向性を概説する。

要約(オリジナル)

Visually impaired individuals face significant challenges navigating and interacting with unknown situations, particularly in tasks requiring spatial awareness and semantic scene understanding. To accelerate the development and evaluate the state of technologies that enable visually impaired people to solve these tasks, the Vision Assistance Race (VIS) at the Cybathlon 2024 competition was organized. In this work, we present Sight Guide, a wearable assistive system designed for the VIS. The system processes data from multiple RGB and depth cameras on an embedded computer that guides the user through complex, real-world-inspired tasks using vibration signals and audio commands. Our software architecture integrates classical robotics algorithms with learning-based approaches to enable capabilities such as obstacle avoidance, object detection, optical character recognition, and touchscreen interaction. In a testing environment, Sight Guide achieved a 95.7% task success rate, and further demonstrated its effectiveness during the Cybathlon competition. This work provides detailed insights into the system design, evaluation results, and lessons learned, and outlines directions towards a broader real-world applicability.

arxiv情報

著者 Patrick Pfreundschuh,Giovanni Cioffi,Cornelius von Einem,Alexander Wyss,Hans Wernher van de Venn,Cesar Cadena,Davide Scaramuzza,Roland Siegwart,Alireza Darvishy
発行日 2025-06-03 09:22:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO | Sight Guide: A Wearable Assistive Perception and Navigation System for the Vision Assistance Race in the Cybathlon 2024 はコメントを受け付けていません

FF-SRL: High Performance GPU-Based Surgical Simulation For Robot Learning

要約

ロボット手術は急速に発展している分野であり、手術作業の自動化から大きな恩恵を受けることができる。しかし、強化学習(RL)のようなトレーニング技術は、一般的に実際の手術システムで実行するには危険で非現実的な、多くのタスクの繰り返しを必要とする。このため、現実的であるだけでなく、計算効率が高く、スケーラブルなシミュレーション手術環境の必要性が強調されている。我々はロボット手術のための高性能学習環境であるFF-SRL(Fast and Flexible Surgical Reinforcement Learning)を紹介する。FF-SRLでは、物理シミュレーションとRLポリシーの学習が、すべて1つのGPU上で実行されます。これにより、CPUとGPU間のデータ転送に伴う典型的なボトルネックを回避し、学習速度の高速化を実現しています。その結果、FF-SRLは一般的なCPU/GPUシミュレータと比較して、複雑な組織操作タスクの学習時間を数分と一桁短縮することができました。このような高速化は、RL技術の実験を容易にし、新世代の手術システムの開発に貢献する可能性がある。このため、我々のコードをコミュニティに公開している。

要約(オリジナル)

Robotic surgery is a rapidly developing field that can greatly benefit from the automation of surgical tasks. However, training techniques such as Reinforcement Learning (RL) require a high number of task repetitions, which are generally unsafe and impractical to perform on real surgical systems. This stresses the need for simulated surgical environments, which are not only realistic, but also computationally efficient and scalable. We introduce FF-SRL (Fast and Flexible Surgical Reinforcement Learning), a high-performance learning environment for robotic surgery. In FF-SRL both physics simulation and RL policy training reside entirely on a single GPU. This avoids typical bottlenecks associated with data transfer between the CPU and GPU, leading to accelerated learning rates. Our results show that FF-SRL reduces the training time of a complex tissue manipulation task by an order of magnitude, down to a couple of minutes, compared to a common CPU/GPU simulator. Such speed-up may facilitate the experimentation with RL techniques and contribute to the development of new generation of surgical systems. To this end, we make our code publicly available to the community.

arxiv情報

著者 Diego Dall’Alba,Michał Naskręt,Sabina Kaminska,Przemysław Korzeniowski
発行日 2025-06-03 09:34:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO | FF-SRL: High Performance GPU-Based Surgical Simulation For Robot Learning はコメントを受け付けていません

Stochastic Modeling of Road Hazards on Intersections and their Effect on Safety of Autonomous Vehicles

要約

自律走行車(AV)は今後数年のうちに一般道路に普及しそうだ。しかし、最終的なブレークスルーを達成するためには、機能的な進歩だけでなく、満足のいく安全性の保証も求められる。その中でも、AVの総合的な安全性を評価し、定量化する必要性が特に注目されている。このような評価は、一方ではAV機能の不完全性を、他方では環境との相互作用を考慮しなければならない。以前の論文では、AVの安全性評価に対するモデルベースのアプローチを紹介しました。このアプローチでは、安全モニターや知覚システムなどのAV機能の不完全な挙動がAVの安全性に与える影響とともに、道路ハザードを記述する確率論的モデルを使用します。このモデルを用いることで、1つの運転条件について、致命的な事故が発生する可能性を定量化することができる。本論文では、このアプローチを拡張し、与えられたODDで定義された一連の異なる運転条件をモデルがどのように明示的に扱うことができるかを示す。

要約(オリジナル)

Autonomous vehicles (AV) look set to become common on our roads within the next few years. However, to achieve the final breakthrough, not only functional progress is required, but also satisfactory safety assurance must be provided. Among those, a question demanding special attention is the need to assess and quantify the overall safety of an AV. Such an assessment must consider on the one hand the imperfections of the AV functionality and on the other hand its interaction with the environment. In a previous paper we presented a model-based approach to AV safety assessment in which we use a probabilistic model to describe road hazards together with the impact on AV safety of imperfect behavior of AV functions, such as safety monitors and perception systems. With this model, we are able to quantify the likelihood of the occurrence of a fatal accident, for a single operating condition. In this paper, we extend the approach and show how the model can deal explicitly with a set of different operating conditions defined in a given ODD.

arxiv情報

著者 Peter Popov,Lorenzo Strigini,Cornelius Buerkle,Fabian Oboril,Michael Paulitsch
発行日 2025-06-03 09:41:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO | Stochastic Modeling of Road Hazards on Intersections and their Effect on Safety of Autonomous Vehicles はコメントを受け付けていません