Collision-free Control Barrier Functions for General Ellipsoids via Separating Hyperplane

要約

このホワイトペーパーでは、コントロールバリア機能(CBFS)とハイパープレーンの分離に基づいた一般的な楕円体の新しい衝突回避方法を紹介します。
第一に、一般的な楕円体の衝突のない条件は、二重円錐の概念を使用して分析的に導出されます。
これらの条件は、制御されたオブジェクトのシステムダイナミクスをハイパープレーンを分離して拡張し、効率的で信頼性の高い衝突回避を可能にすることにより、CBFフレームワークに組み込まれます。
提案された衝突のないCBFの妥当性は厳密に証明されており、安全性の制約を実施する際の有効性を確保しています。
提案された方法では、単一レベルの最適化のみが必要であり、最先端の方法と比較して計算時間を大幅に削減します。
数値シミュレーションと実際の実験は、提案されたアルゴリズムの有効性と実用性を示しています。

要約(オリジナル)

This paper presents a novel collision avoidance method for general ellipsoids based on control barrier functions (CBFs) and separating hyperplanes. First, collision-free conditions for general ellipsoids are analytically derived using the concept of dual cones. These conditions are incorporated into the CBF framework by extending the system dynamics of controlled objects with separating hyperplanes, enabling efficient and reliable collision avoidance. The validity of the proposed collision-free CBFs is rigorously proven, ensuring their effectiveness in enforcing safety constraints. The proposed method requires only single-level optimization, significantly reducing computational time compared to state-of-the-art methods. Numerical simulations and real-world experiments demonstrate the effectiveness and practicality of the proposed algorithm.

arxiv情報

著者 Zeming Wu,Lu Liu
発行日 2025-05-27 08:01:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Collision-free Control Barrier Functions for General Ellipsoids via Separating Hyperplane はコメントを受け付けていません

G-DReaM: Graph-conditioned Diffusion Retargeting across Multiple Embodiments

要約

既存のモーションデータセットからの特定のロボットのモーションリターゲティングは、人間の行動からさまざまなロボット全体にモーションパターンを転送する重要なステップの1つです。
ただし、トポロジー構造、幾何学的パラメーター、および共同対応の不一致により、統一されたリターゲティングアーキテクチャとの多様な実施形態を処理することが困難になります。
この作業では、多様な実施形態を介したリターゲティング参照運動のための新しい統一グラフ条件付き拡散ベースのモーション生成フレームワークを提案します。
不均一な実施形態の固有の特性は、異なるロボットのトポロジー的および幾何学的特徴を効果的にキャプチャするグラフ構造で表されます。
このようなグラフベースのエンコーディングにより、この作業で開発されたカスタマイズされた注意メカニズムを使用して、関節レベルでの知識の活用がさらに可能になります。
目的の具体化の地上真理の動きを欠くために、拡散モデルを訓練するためにリターゲティング損失として定式化されたエネルギーベースのガイダンスを利用します。
ロボット工学における最初の交配運動リターゲティング方法の1つとして、我々の実験は、提案されたモデルが統一された方法で不均一な実施形態を越えてリターゲットすることができることを検証します。
さらに、多様な骨格構造と同様のモーションパターンの両方にある程度の一般化を示しています。

要約(オリジナル)

Motion retargeting for specific robot from existing motion datasets is one critical step in transferring motion patterns from human behaviors to and across various robots. However, inconsistencies in topological structure, geometrical parameters as well as joint correspondence make it difficult to handle diverse embodiments with a unified retargeting architecture. In this work, we propose a novel unified graph-conditioned diffusion-based motion generation framework for retargeting reference motions across diverse embodiments. The intrinsic characteristics of heterogeneous embodiments are represented with graph structure that effectively captures topological and geometrical features of different robots. Such a graph-based encoding further allows for knowledge exploitation at the joint level with a customized attention mechanisms developed in this work. For lacking ground truth motions of the desired embodiment, we utilize an energy-based guidance formulated as retargeting losses to train the diffusion model. As one of the first cross-embodiment motion retargeting methods in robotics, our experiments validate that the proposed model can retarget motions across heterogeneous embodiments in a unified manner. Moreover, it demonstrates a certain degree of generalization to both diverse skeletal structures and similar motion patterns.

arxiv情報

著者 Zhefeng Cao,Ben Liu,Sen Li,Wei Zhang,Hua Chen
発行日 2025-05-27 08:06:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | G-DReaM: Graph-conditioned Diffusion Retargeting across Multiple Embodiments はコメントを受け付けていません

Generalized Coordination of Partially Cooperative Urban Traffic

要約

特に自動運転車の車両間の接続性は、たとえば知覚や運転の意図を共有することにより、道路交通の乗客の快適性と安全性を高めることを約束します。
協調操作計画では、接続性を使用してトラフィック効率を向上させます。これは、これまでのところ、自動化された交差管理のために主に考慮されてきました。
この記事では、都市の交通に見られるさまざまな状況に一般化されている新しい協同操作計画アプローチを紹介します。
私たちのフレームワークは、困難な混合トラフィック、つまり、協力接続車両とあらゆる流通での他の車両の両方を含む交通を処理します。
私たちのソリューションは、高負荷シナリオのための効率的なヒューリスティックな方法を伴う最適化アプローチに基づいています。
提案されたプレーナーを明らかに現実的なシミュレーションフレームワークで広範囲に評価し、40%の協力率ですでに有意な効率の向上を示しています。
交通の安全性に影響を与えることなく、トラフィックスループットが増加しますが、平均待機時間と停止車両の数は減少します。

要約(オリジナル)

Vehicle-to-anything connectivity, especially for autonomous vehicles, promises to increase passenger comfort and safety of road traffic, for example, by sharing perception and driving intention. Cooperative maneuver planning uses connectivity to enhance traffic efficiency, which has, so far, been mainly considered for automated intersection management. In this article, we present a novel cooperative maneuver planning approach that is generalized to various situations found in urban traffic. Our framework handles challenging mixed traffic, that is, traffic comprising both cooperative connected vehicles and other vehicles at any distribution. Our solution is based on an optimization approach accompanied by an efficient heuristic method for high-load scenarios. We extensively evaluate the proposed planer in a distinctly realistic simulation framework and show significant efficiency gains already at a cooperation rate of 40%. Traffic throughput increases, while the average waiting time and the number of stopped vehicles are reduced, without impacting traffic safety.

arxiv情報

著者 Max Bastian Mertens,Michael Buchholz
発行日 2025-05-27 08:25:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.MA, cs.RO | Generalized Coordination of Partially Cooperative Urban Traffic はコメントを受け付けていません

Cross from Left to Right Brain: Adaptive Text Dreamer for Vision-and-Language Navigation

要約

Vision-and-Language Navigation(VLN)では、エージェントが部分的な観察可能性の下で自然な指示に従ってナビゲートする必要があり、知覚を言語に合わせることを困難にします。
最近の方法は、将来のシーンを想像することでこれを軽減しますが、視覚ベースの合成に依存しているため、計算コストが高く冗長な詳細につながります。
この目的のために、\ textit {Language}フォームを介して重要な環境セマンティクスを適応的に想像することを提案し、より信頼性が高く効率的な戦略を可能にします。
具体的には、大規模な言語モデル(LLM)に基づいて構築されたデュアルブランチのセルフガイド想像力ポリシーである新しい適応テキストドリーマー(ATD)を紹介します。
ATDは、左脳が論理的統合に焦点を当てている人間のような左右の脳構造で設計されており、右脳は将来のシーンの想像力豊かな予測に責任があります。
これを達成するために、両方の脳内のQ-formerのみを微調整して、LLMのドメイン固有の知識を効率的にアクティブにし、ナビゲーション中の論理的推論と想像力の動的な更新を可能にします。
さらに、想像された出力を正規化してナビゲーションエキスパートモジュールに注入するための相互相互作用メカニズムを導入し、ATDがLLMの推論能力とナビゲーションモデルの専門知識の両方を共同で活用できるようにします。
R2Rベンチマークで広範な実験を行い、ATDはパラメーターが少ない最先端のパフォーマンスを実現します。
コードは\ href {https://github.com/zhangpingrui/adaptive-text-dreamer} {ここに}です。

要約(オリジナル)

Vision-and-Language Navigation (VLN) requires the agent to navigate by following natural instructions under partial observability, making it difficult to align perception with language. Recent methods mitigate this by imagining future scenes, yet they rely on vision-based synthesis, leading to high computational cost and redundant details. To this end, we propose to adaptively imagine key environmental semantics via \textit{language} form, enabling a more reliable and efficient strategy. Specifically, we introduce a novel Adaptive Text Dreamer (ATD), a dual-branch self-guided imagination policy built upon a large language model (LLM). ATD is designed with a human-like left-right brain architecture, where the left brain focuses on logical integration, and the right brain is responsible for imaginative prediction of future scenes. To achieve this, we fine-tune only the Q-former within both brains to efficiently activate domain-specific knowledge in the LLM, enabling dynamic updates of logical reasoning and imagination during navigation. Furthermore, we introduce a cross-interaction mechanism to regularize the imagined outputs and inject them into a navigation expert module, allowing ATD to jointly exploit both the reasoning capacity of the LLM and the expertise of the navigation model. We conduct extensive experiments on the R2R benchmark, where ATD achieves state-of-the-art performance with fewer parameters. The code is \href{https://github.com/zhangpingrui/Adaptive-Text-Dreamer}{here}.

arxiv情報

著者 Pingrui Zhang,Yifei Su,Pengyuan Wu,Dong An,Li Zhang,Zhigang Wang,Dong Wang,Yan Ding,Bin Zhao,Xuelong Li
発行日 2025-05-27 08:40:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CV, cs.RO | Cross from Left to Right Brain: Adaptive Text Dreamer for Vision-and-Language Navigation はコメントを受け付けていません

HS-SLAM: A Fast and Hybrid Strategy-Based SLAM Approach for Low-Speed Autonomous Driving

要約

視覚型の同時ローカリゼーションとマッピング(SLAM)は、ロボット工学と低速自律車両の重要なモジュールであり、通常、実用的なアプリケーションの高い計算負担によって制限されます。
この目的のために、革新的な戦略ベースのハイブリッドフレームワークHS-SLALは、パフォーマンスを低下させることなく、高速計算のための直接および機能ベースの方法の利点を統合するために提案されています。
最初に、トラッキングスレッド内のIMUポーズ推定を使用して、連続したフレームの相対的な位置を推定します。
次に、これらの推定値をマルチレイヤーダイレクトメソッドを介して改良します。これは、粗いから微細な相対ポーズを徐々に修正し、最終的に正確なコーナーベースの機能マッチングを実現します。
このアプローチは、従来の一定速度追跡モデルの代替として機能します。
非批判的なフレームの記述子抽出を選択的にバイパスすることにより、HS-SLAMは追跡速度を大幅に改善します。
Euroc MAVデータセットの実験的評価は、HS-SLAMがORB-SLAM3よりも高い局所化精度を達成し、平均追跡効率を15%改善することを示しています。

要約(オリジナル)

Visual-inertial simultaneous localization and mapping (SLAM) is a key module of robotics and low-speed autonomous vehicles, which is usually limited by the high computation burden for practical applications. To this end, an innovative strategy-based hybrid framework HS-SLAM is proposed to integrate the advantages of direct and feature-based methods for fast computation without decreasing the performance. It first estimates the relative positions of consecutive frames using IMU pose estimation within the tracking thread. Then, it refines these estimates through a multi-layer direct method, which progressively corrects the relative pose from coarse to fine, ultimately achieving accurate corner-based feature matching. This approach serves as an alternative to the conventional constant-velocity tracking model. By selectively bypassing descriptor extraction for non-critical frames, HS-SLAM significantly improves the tracking speed. Experimental evaluations on the EuRoC MAV dataset demonstrate that HS-SLAM achieves higher localization accuracies than ORB-SLAM3 while improving the average tracking efficiency by 15%.

arxiv情報

著者 Bingxiang Kang,Jie Zou,Guofa Li,Pengwei Zhang,Jie Zeng,Kan Wang,Jie Li
発行日 2025-05-27 08:52:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, I.2.9 | HS-SLAM: A Fast and Hybrid Strategy-Based SLAM Approach for Low-Speed Autonomous Driving はコメントを受け付けていません

COM Adjustment Mechanism Control for Multi-Configuration Motion Stability of Unmanned Deformable Vehicle

要約

無人の変形車両は、異なる動きモードと安定性特性を持つ車両とヒューマノイド状態の2つの構成の間に変換される車輪の足のロボットです。
複数の構成の動きの安定性に対処するために、マス中央調整メカニズムが設計されました。
さらに、運動安定性の階層制御アルゴリズムが提案され、2度のフリードームの中央調整メカニズムに基づく電気機械モデルが確立されました。
無人の変理可能な車両車両状態の定常状態のステアリングダイナミクスモデルと、ヒューマノイド状態の歩行の歩行計画運動モデルが確立されました。
安定性階層制御戦略は、安定性制御を実現するために設計されました。
結果は、車両状態の定常状態のステアリング安定性とヒューマノイド状態の歩行安定性が、スライダーの動きを制御することで大幅に改善できることを示しました。

要約(オリジナル)

An unmanned deformable vehicle is a wheel-legged robot transforming between two configurations: vehicular and humanoid states, with different motion modes and stability characteristics. To address motion stability in multiple configurations, a center-of-mass adjustment mechanism was designed. Further, a motion stability hierarchical control algorithm was proposed, and an electromechanical model based on a two-degree-of-freedom center-of-mass adjustment mechanism was established. An unmanned-deformable-vehicle vehicular-state steady-state steering dynamics model and a gait planning kinematic model of humanoid state walking were established. A stability hierarchical control strategy was designed to realize the stability control. The results showed that the steady-state steering stability in vehicular state and the walking stability in humanoid state could be significantly improved by controlling the slider motion.

arxiv情報

著者 Jun Liu,Hongxun Liu,Cheng Zhang,Jiandang Xing,Shang Jiang,Ping Jiang
発行日 2025-05-27 09:16:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | COM Adjustment Mechanism Control for Multi-Configuration Motion Stability of Unmanned Deformable Vehicle はコメントを受け付けていません

Conversational Code Generation: a Case Study of Designing a Dialogue System for Generating Driving Scenarios for Testing Autonomous Vehicles

要約

自律車両のようなサイバー物理システムは、シナリオ仕様にドメイン固有のプログラムを使用して、展開前にシミュレーションでテストされます。
シミュレーションにおける自動運転車のテストを支援するために、指導に従う大きな言語モデルを使用して自然言語インターフェイスを設計し、目的のシナリオと車両の行動を統合する際に非コーディングドメインの専門家を支援します。
非常に小さなトレーニングデータセットにもかかわらず、発言をシンボリックプログラムに変換するためにそれを使用することが実行可能であることを示します。
人間の実験では、シミュレーション生成を成功させるには対話が重要であり、長期にわたる会話に従事することなく世代の4.5倍の成功率につながることが示されています。

要約(オリジナル)

Cyber-physical systems like autonomous vehicles are tested in simulation before deployment, using domain-specific programs for scenario specification. To aid the testing of autonomous vehicles in simulation, we design a natural language interface, using an instruction-following large language model, to assist a non-coding domain expert in synthesising the desired scenarios and vehicle behaviours. We show that using it to convert utterances to the symbolic program is feasible, despite the very small training dataset. Human experiments show that dialogue is critical to successful simulation generation, leading to a 4.5 times higher success rate than a generation without engaging in extended conversation.

arxiv情報

著者 Rimvydas Rubavicius,Antonio Valerio Miceli-Barone,Alex Lascarides,Subramanian Ramamoorthy
発行日 2025-05-27 09:29:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.IR, cs.RO | Conversational Code Generation: a Case Study of Designing a Dialogue System for Generating Driving Scenarios for Testing Autonomous Vehicles はコメントを受け付けていません

Drones Guiding Drones: Cooperative Navigation of a Less-Equipped Micro Aerial Vehicle in Cluttered Environments

要約

散らかった未知の環境での無人航空機(UAV)の信頼できる展開には、グローバルナビゲーション衛星システム(GNSS)が導入したローカリゼーションと障害物回避に正確なセンサーが必要です。
このような要件は、産業グレードの信頼性と精度が必要な場合、制約されたペイロード容量を備えた安価でマイクロスケールの車両の使用を制限します。
このペーパーでは、狭いパッセージを探索するためのより小さなロボットの望ましい能力を維持しながら、UAVチームの別のメンバーに重いセンサーを運ぶ必要性をオフロードする可能性を調査します。
最小限のセカンダリUAVから優れたプライマリUAVへのセンシング要件をオフロードする新しい協同ガイダンスフレームワークが提案されています。
プライマリUAVは、環境の密集した占有マップを構築し、両方のUAVの衝突のないパスを計画して、大きなロボットがアクセスできない地域でも、希望のセカンダリUAVの目標に到達することを保証します。
プライマリUAVは、ライト検出と範囲(LIDAR)ベースの相対局在を使用してUAVを追跡しながら、計画されたパスを追跡するためにセカンダリUAVをガイドします。
提案されたアプローチは、3D LIDARが装備したプライマリUAVの不均一なチームと、UAVを完全に搭載した提案されたフレームワークを使用して、未知のGNSSによる環境を介して自律的に移動するマイクロスケールカメラ装備のUAVを使用した実世界の実験で検証されました。

要約(オリジナル)

Reliable deployment of Unmanned Aerial Vehicles (UAVs) in cluttered unknown environments requires accurate sensors for Global Navigation Satellite System (GNSS)-denied localization and obstacle avoidance. Such a requirement limits the usage of cheap and micro-scale vehicles with constrained payload capacity if industrial-grade reliability and precision are required. This paper investigates the possibility of offloading the necessity to carry heavy sensors to another member of the UAV team while preserving the desired capability of the smaller robot intended for exploring narrow passages. A novel cooperative guidance framework offloading the sensing requirements from a minimalistic secondary UAV to a superior primary UAV is proposed. The primary UAV constructs a dense occupancy map of the environment and plans collision-free paths for both UAVs to ensure reaching the desired secondary UAV’s goals even in areas not accessible by the bigger robot. The primary UAV guides the secondary UAV to follow the planned path while tracking the UAV using Light Detection and Ranging (LiDAR)-based relative localization. The proposed approach was verified in real-world experiments with a heterogeneous team of a 3D LiDAR-equipped primary UAV and a micro-scale camera-equipped secondary UAV moving autonomously through unknown cluttered GNSS-denied environments with the proposed framework running fully on board the UAVs.

arxiv情報

著者 Václav Pritzl,Matouš Vrba,Yurii Stasinchuk,Vít Krátký,Jiří Horyna,Petr Štěpán,Martin Saska
発行日 2025-05-27 09:38:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Drones Guiding Drones: Cooperative Navigation of a Less-Equipped Micro Aerial Vehicle in Cluttered Environments はコメントを受け付けていません

Object-Centric Action-Enhanced Representations for Robot Visuo-Motor Policy Learning

要約

ロボットvisuo-motorポリシー生成に利益をもたらすためにアクションを観察することから視覚的表現を学ぶことは、人間の認知機能と知覚に非常に似ている有望な方向です。
これに動機付けられ、さらに心理的理論に触発され、人間がオブジェクトベースの方法でシーンを処理することを示唆する心理的理論に触発され、他の作品とは異なり、結合した方法でセマンティックセグメンテーションと視覚表現生成を実行するオブジェクト中心のエンコーダーを提案します。
これを実現するために、スロット注意メカニズムを活用し、大規模なドメイン外データセットで前提条件のSolVモデルを使用して、人間のアクションビデオデータで微調整をブートストラップします。
シミュレートされたロボットタスクを通じて、視覚的表現が強化と模倣学習トレーニングを強化し、セマンティックセグメンテーションとエンコーディングのための統合アプローチの有効性を強調できることを実証します。
さらに、ドメイン外データセットで前処理されたモデルを悪用すると、このプロセスに利益をもたらす可能性があり、人間の行動を描いたデータセットでの微調整は、まだドメイン外ではあるが、ロボットタスクとの密接な整合によりパフォーマンスを大幅に改善できることを示しています。
これらの調査結果は、注釈付きまたはロボット固有のアクションデータセットへの依存を減らす機能と、トレーニングを加速し、一般化を改善するために既存の視覚エンコーダーに基づいて構築する可能性を示しています。

要約(オリジナル)

Learning visual representations from observing actions to benefit robot visuo-motor policy generation is a promising direction that closely resembles human cognitive function and perception. Motivated by this, and further inspired by psychological theories suggesting that humans process scenes in an object-based fashion, we propose an object-centric encoder that performs semantic segmentation and visual representation generation in a coupled manner, unlike other works, which treat these as separate processes. To achieve this, we leverage the Slot Attention mechanism and use the SOLV model, pretrained in large out-of-domain datasets, to bootstrap fine-tuning on human action video data. Through simulated robotic tasks, we demonstrate that visual representations can enhance reinforcement and imitation learning training, highlighting the effectiveness of our integrated approach for semantic segmentation and encoding. Furthermore, we show that exploiting models pretrained on out-of-domain datasets can benefit this process, and that fine-tuning on datasets depicting human actions — although still out-of-domain — , can significantly improve performance due to close alignment with robotic tasks. These findings show the capability to reduce reliance on annotated or robot-specific action datasets and the potential to build on existing visual encoders to accelerate training and improve generalizability.

arxiv情報

著者 Nikos Giannakakis,Argyris Manetas,Panagiotis P. Filntisis,Petros Maragos,George Retsinas
発行日 2025-05-27 09:56:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | Object-Centric Action-Enhanced Representations for Robot Visuo-Motor Policy Learning はコメントを受け付けていません

SCALOFT: An Initial Approach for Situation Coverage-Based Safety Analysis of an Autonomous Aerial Drone in a Mine Environment

要約

動的および危険な環境における自律システムの安全性は、重大な課題をもたらします。
このホワイトペーパーでは、鉱山の自律航空ドローンの安全性を体系的に評価するためのScaloftという名前のテストアプローチを提示します。
Scaloftは、多様なテストケースを開発し、システムの動作のリアルタイム監視、および安全違反の検出のためのフレームワークを提供します。
その後、検出された違反は、詳細な分析と将来の改善のために、一意の識別子で記録されます。
Scaloftは、状況のカバレッジを監視し、最終的なカバレッジ尺度を計算することにより、安全性の議論を構築するのに役立ちます。
このアプローチのパフォーマンスをシステムに意図的に導入し、Scaloftがそれらの障害を検出できるかどうかを評価することにより、このアプローチのパフォーマンスを評価しました。
もっともらしい断層の小さなセットの場合、Scaloftがこれに成功していることを示します。

要約(オリジナル)

The safety of autonomous systems in dynamic and hazardous environments poses significant challenges. This paper presents a testing approach named SCALOFT for systematically assessing the safety of an autonomous aerial drone in a mine. SCALOFT provides a framework for developing diverse test cases, real-time monitoring of system behaviour, and detection of safety violations. Detected violations are then logged with unique identifiers for detailed analysis and future improvement. SCALOFT helps build a safety argument by monitoring situation coverage and calculating a final coverage measure. We have evaluated the performance of this approach by deliberately introducing seeded faults into the system and assessing whether SCALOFT is able to detect those faults. For a small set of plausible faults, we show that SCALOFT is successful in this.

arxiv情報

著者 Nawshin Mannan Proma,Victoria J Hodge,Rob Alexander
発行日 2025-05-27 10:03:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | SCALOFT: An Initial Approach for Situation Coverage-Based Safety Analysis of an Autonomous Aerial Drone in a Mine Environment はコメントを受け付けていません