Safety Implications of Explainable Artificial Intelligence in End-to-End Autonomous Driving

要約

エンドツーエンドの学習パイプラインは、主に深い学習の進歩、大規模なトレーニングデータセットの利用可能性、統合センサーデバイスの改善により、徐々に自律車両(AV)の進行中の開発にパラダイムシフトを徐々に作成しています。
ただし、現代の学習方法によるリアルタイムの決定における説明可能性の欠如は、ユーザーの信頼を妨げ、そのような車両の広範な展開と商業化を弱めます。
さらに、これらの車が交通事故に関与したり、引き起こしたりすると、問題は悪化します。
その結果、車両の自動化への信頼を築くためには、エンドツーエンドの自律運転の説明可能性が不可欠です。
そうは言っても、自動車の研究者は、エンドツーエンドの自律運転における説明の安全上の利点と結果の結果をまだ厳密に調査していません。
このペーパーは、これらのトピック間のギャップを埋めることを目的としており、次の研究質問に答えようとしています。エンドツーエンドの自律運転における説明の安全上の意味は何ですか?
この点で、最初に、エンドツーエンドの運転において、確立された安全性と説明可能性の概念を再検討します。
さらに、重要なケーススタディを提示し、運転の安全性を高める上での説明の極めて重要な役割を示しています。
最後に、経験的研究からの洞察を説明し、エンドツーエンドの運転の安全性に対する潜在的な影響に関する実用的な説明可能なAIメソッドの潜在的な価値、制限、および警告を明らかにします。

要約(オリジナル)

The end-to-end learning pipeline is gradually creating a paradigm shift in the ongoing development of highly autonomous vehicles (AVs), largely due to advances in deep learning, the availability of large-scale training datasets, and improvements in integrated sensor devices. However, a lack of explainability in real-time decisions with contemporary learning methods impedes user trust and attenuates the widespread deployment and commercialization of such vehicles. Moreover, the issue is exacerbated when these cars are involved in or cause traffic accidents. Consequently, explainability in end-to-end autonomous driving is essential to build trust in vehicular automation. With that said, automotive researchers have not yet rigorously explored safety benefits and consequences of explanations in end-to-end autonomous driving. This paper aims to bridge the gaps between these topics and seeks to answer the following research question: What are safety implications of explanations in end-to-end autonomous driving? In this regard, we first revisit established safety and explainability concepts in end-to-end driving. Furthermore, we present critical case studies and show the pivotal role of explanations in enhancing driving safety. Finally, we describe insights from empirical studies and reveal potential value, limitations, and caveats of practical explainable AI methods with respect to their potential impacts on safety of end-to-end driving.

arxiv情報

著者 Shahin Atakishiyev,Mohammad Salameh,Randy Goebel
発行日 2025-04-20 23:39:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | Safety Implications of Explainable Artificial Intelligence in End-to-End Autonomous Driving はコメントを受け付けていません

Dynamic Contrastive Skill Learning with State-Transition Based Skill Clustering and Dynamic Length Adjustment

要約

強化学習(RL)は、さまざまなドメインで大きな進歩を遂げていますが、複雑な意思決定を伴う長老のタスクに拡大することは依然として困難です。
スキル学習は、アクションを高レベルの動作に抽象化することにより、これに対処しようとします。
ただし、現在のアプローチは、意味的に類似した動作を同じスキルとして認識できず、固定スキルの長さを使用して、柔軟性と一般化を制限します。
これに対処するために、スキルの表現と学習を再定義する新しいフレームワークである動的コントラストスキル学習(DCSL)を提案します。
DCSLは、3つの重要なアイデアを紹介します。州に基づくスキル表現、スキル類似機能学習、動的なスキル長の調整です。
州の移行に焦点を当て、対照学習を活用することにより、DCSLは行動の意味的コンテキストを効果的にキャプチャし、適切な時間的範囲の行動の範囲に合わせてスキルの長さを適応させます。
私たちのアプローチにより、特に複雑なまたは騒々しいデータセットで、より柔軟で適応性のあるスキル抽出が可能になり、タスクの完了と効率の既存の方法と比較して競争力のあるパフォーマンスを実証します。

要約(オリジナル)

Reinforcement learning (RL) has made significant progress in various domains, but scaling it to long-horizon tasks with complex decision-making remains challenging. Skill learning attempts to address this by abstracting actions into higher-level behaviors. However, current approaches often fail to recognize semantically similar behaviors as the same skill and use fixed skill lengths, limiting flexibility and generalization. To address this, we propose Dynamic Contrastive Skill Learning (DCSL), a novel framework that redefines skill representation and learning. DCSL introduces three key ideas: state-transition based skill representation, skill similarity function learning, and dynamic skill length adjustment. By focusing on state transitions and leveraging contrastive learning, DCSL effectively captures the semantic context of behaviors and adapts skill lengths to match the appropriate temporal extent of behaviors. Our approach enables more flexible and adaptive skill extraction, particularly in complex or noisy datasets, and demonstrates competitive performance compared to existing methods in task completion and efficiency.

arxiv情報

著者 Jinwoo Choi,Seung-Woo Seo
発行日 2025-04-21 02:11:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO | Dynamic Contrastive Skill Learning with State-Transition Based Skill Clustering and Dynamic Length Adjustment はコメントを受け付けていません

A0: An Affordance-Aware Hierarchical Model for General Robotic Manipulation

要約

ロボット操作は、オブジェクトの相互作用の「「ここ」と「どのように」という空間アフォーダンスを理解する上で重要な課題に直面しています。
モジュラーベースおよびエンドツーエンドのアプローチを含む既存の方法には、多くの場合、堅牢な空間的推論機能が欠けています。
密な空間表現または軌道モデリングに焦点を当てた最近のポイントベースおよびフローベースのアフォーダンス方法とは異なり、操作タスクを高レベルの空間アフォーダンス理解と低レベルのアクション実行に分解する階層的なアフォーダンス認識拡散モデルであるA0を提案します。
A0は、コンタクトポイントと接触後の軌道を予測することにより、オブジェクト中心の空間アフォーダンスをキャプチャする具体化と存在するアフォーダンス表現を活用します。
A0は、100万個の接点データで事前に訓練され、注釈付きの軌跡で微調整されており、プラットフォーム間で一般化を可能にします。
重要なコンポーネントには、モーションアウェア機能抽出の位置オフセット注意と、正確な座標マッピングのための空間情報集約レイヤーが含まれます。
モデルの出力は、アクション実行モジュールによって実行されます。
複数のロボットシステム(Franka、Kinova、Realman、およびDobot)の実験は、複雑なタスクでA0の優れたパフォーマンスを示し、その効率、柔軟性、および実際の適用性を示しています。

要約(オリジナル)

Robotic manipulation faces critical challenges in understanding spatial affordances–the ‘where’ and ‘how’ of object interactions–essential for complex manipulation tasks like wiping a board or stacking objects. Existing methods, including modular-based and end-to-end approaches, often lack robust spatial reasoning capabilities. Unlike recent point-based and flow-based affordance methods that focus on dense spatial representations or trajectory modeling, we propose A0, a hierarchical affordance-aware diffusion model that decomposes manipulation tasks into high-level spatial affordance understanding and low-level action execution. A0 leverages the Embodiment-Agnostic Affordance Representation, which captures object-centric spatial affordances by predicting contact points and post-contact trajectories. A0 is pre-trained on 1 million contact points data and fine-tuned on annotated trajectories, enabling generalization across platforms. Key components include Position Offset Attention for motion-aware feature extraction and a Spatial Information Aggregation Layer for precise coordinate mapping. The model’s output is executed by the action execution module. Experiments on multiple robotic systems (Franka, Kinova, Realman, and Dobot) demonstrate A0’s superior performance in complex tasks, showcasing its efficiency, flexibility, and real-world applicability.

arxiv情報

著者 Rongtao Xu,Jian Zhang,Minghao Guo,Youpeng Wen,Haoting Yang,Min Lin,Jianzheng Huang,Zhe Li,Kaidong Zhang,Liqiong Wang,Yuxuan Kuang,Meng Cao,Feng Zheng,Xiaodan Liang
発行日 2025-04-21 02:13:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | A0: An Affordance-Aware Hierarchical Model for General Robotic Manipulation はコメントを受け付けていません

An Iterative Task-Driven Framework for Resilient LiDAR Place Recognition in Adverse Weather

要約

Lidar Place認識(LPR)は、自律的なナビゲーションにおいて重要な役割を果たします。
しかし、既存のLPR方法は、雨、雪、霧などの有害な気象条件の下で堅牢性を維持するのに苦労しています。そこでは、気象による騒音やポイントの雲の劣化がライダーの信頼性と知覚の精度を損ないます。
これらの課題に取り組むために、反復的な学習戦略を介してLIDARデータ修復(LDR)モジュールとLIDAR場所認識(LPR)モジュールを統合する反復タスク駆動型フレームワーク(ITDNET)を提案します。
これらのモジュールは、パフォーマンスを向上させるための交互の最適化を備えた共同トレーニングエンドツーエンドです。
ITDNETの核となる理論的根拠は、LDRモジュールを活用して破損した点雲を回復し、クリーンデータとの構造的一貫性を保存し、それにより有害な天候のLPR精度を改善することです。
同時に、LPRタスクは、LDRモジュールのトレーニングをガイドするための特徴の擬似ラベルを提供し、LPRタスクとより効果的に整合します。
これを達成するために、最初にタスク駆動型のLPR損失と再構成損失を設計して、LDRモジュールの最適化を共同で監督します。
さらに、LDRモジュールの場合、周波数空間機能融合のためのデュアルドメインミキサー(DDM)ブロックとセマンティックガイドの修復用セマンティックアウェアジェネレーター(SAG)ブロックを提案します。
さらに、LPRモジュールには、多頻度変圧器(MFT)ブロックとウェーブレットピラミッドNetVlad(WPN)ブロックを導入して、マルチスケールで堅牢なグローバル記述子を集約します。
最後に、Weather-Kitti、Boreas、および提案されているWeather-Apolloデータセットに関する広範な実験は、ITDNETが既存のLPRメソッドを上回り、有害な天候で最先端のパフォーマンスを達成することを示しています。
データセットとコードは、https://github.com/grandzxw/itdnetで公開されます。

要約(オリジナル)

LiDAR place recognition (LPR) plays a vital role in autonomous navigation. However, existing LPR methods struggle to maintain robustness under adverse weather conditions such as rain, snow, and fog, where weather-induced noise and point cloud degradation impair LiDAR reliability and perception accuracy. To tackle these challenges, we propose an Iterative Task-Driven Framework (ITDNet), which integrates a LiDAR Data Restoration (LDR) module and a LiDAR Place Recognition (LPR) module through an iterative learning strategy. These modules are jointly trained end-to-end, with alternating optimization to enhance performance. The core rationale of ITDNet is to leverage the LDR module to recover the corrupted point clouds while preserving structural consistency with clean data, thereby improving LPR accuracy in adverse weather. Simultaneously, the LPR task provides feature pseudo-labels to guide the LDR module’s training, aligning it more effectively with the LPR task. To achieve this, we first design a task-driven LPR loss and a reconstruction loss to jointly supervise the optimization of the LDR module. Furthermore, for the LDR module, we propose a Dual-Domain Mixer (DDM) block for frequency-spatial feature fusion and a Semantic-Aware Generator (SAG) block for semantic-guided restoration. In addition, for the LPR module, we introduce a Multi-Frequency Transformer (MFT) block and a Wavelet Pyramid NetVLAD (WPN) block to aggregate multi-scale, robust global descriptors. Finally, extensive experiments on the Weather-KITTI, Boreas, and our proposed Weather-Apollo datasets demonstrate that, demonstrate that ITDNet outperforms existing LPR methods, achieving state-of-the-art performance in adverse weather. The datasets and code will be made publicly available at https://github.com/Grandzxw/ITDNet.

arxiv情報

著者 Xiongwei Zhao,Yang Wang,Qihao Sun,Haojie Bai,Xingxiang Xie
発行日 2025-04-21 02:15:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | An Iterative Task-Driven Framework for Resilient LiDAR Place Recognition in Adverse Weather はコメントを受け付けていません

Accelerating Visual Reinforcement Learning with Separate Primitive Policy for Peg-in-Hole Tasks

要約

ペグインホールタスクの場合、人間は双眼視覚に依存して穴の表面の上にペグを配置し、挿入を進めます。
このペーパーでは、エージェントが視覚強化学習を通じて効率的な組み立て戦略を学ぶことができるように、この動作からの洞察を導き出します。
したがって、場所と挿入アクションを導き出す方法を同時に学ぶために、個別の原始ポリシー(S2P)を提案します。
S2Pは、モデルフリーの強化学習アルゴリズムと互換性があります。
さまざまなポリゴンを備えた10の挿入タスクが、評価のためのベンチマークとして開発されています。
シミュレーション実験により、S2Pは、力の制約があってもサンプルの効率と成功率を高めることができることが示されています。
S2Pの実現可能性を検証するために、実際の実験も実行されます。
S2Pの一般化とそのパフォーマンスに影響を与えるいくつかの要因について議論するために、アブレーションが最終的に与えられます。

要約(オリジナル)

For peg-in-hole tasks, humans rely on binocular visual perception to locate the peg above the hole surface and then proceed with insertion. This paper draws insights from this behavior to enable agents to learn efficient assembly strategies through visual reinforcement learning. Hence, we propose a Separate Primitive Policy (S2P) to simultaneously learn how to derive location and insertion actions. S2P is compatible with model-free reinforcement learning algorithms. Ten insertion tasks featuring different polygons are developed as benchmarks for evaluations. Simulation experiments show that S2P can boost the sample efficiency and success rate even with force constraints. Real-world experiments are also performed to verify the feasibility of S2P. Ablations are finally given to discuss the generalizability of S2P and some factors that affect its performance.

arxiv情報

著者 Zichun Xu,Zhaomin Wang,Yuntao Li,Lei Zhuang,Zhiyuan Zhao,Guocai Yang,Jingdong Zhao
発行日 2025-04-21 02:53:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Accelerating Visual Reinforcement Learning with Separate Primitive Policy for Peg-in-Hole Tasks はコメントを受け付けていません

SuFIA-BC: Generating High Quality Demonstration Data for Visuomotor Policy Learning in Surgical Subtasks

要約

行動のクローン化は、器用な操作スキルの学習を促進しますが、外科的環境の複雑さ、患者データを取得することの難しさと費用、およびロボットのキャリブレーションエラーは、外科的ロボット学習のためのユニークな課題をもたらします。
私たちは、外科的自律性の基本的なタスクを解決するために高品質の合成データを生成するために設計された包括的なシミュレーターに統合された、光リアリスティックなヒトの解剖学的臓器を備えた強化された手術デジタルツインを提供します。
Sufia-BC:視覚的行動のクローニングポリシーを、外科的ファーストインタラクティブ自律アシスタントのためのポリシーをクローニングします。
単一の内視鏡カメラビューから抽出されたマルチビューカメラや3D視覚表現などの視覚観測スペースを調査します。
体系的な評価を通じて、この作業で導入された多様な光エアリスティックな外科的タスクのセットにより、外科的環境によってもたらされるユニークな課題の前向き行動クローニングモデルの包括的な評価が可能になることがわかります。
私たちは、現在の最先端の行動クローニング技術が、根本的な認識や制御アーキテクチャに関係なく、この作業で評価された接触豊富で複雑なタスクを解決するのに苦労していることを観察します。
これらの調査結果は、知覚パイプラインと制御アーキテクチャをカスタマイズすることの重要性と、外科的タスクの特定の要求を満たす大規模な合成データセットのキュレートを強調しています。
プロジェクトのウェブサイト:https://orbit-surgical.github.io/sufia-bc/

要約(オリジナル)

Behavior cloning facilitates the learning of dexterous manipulation skills, yet the complexity of surgical environments, the difficulty and expense of obtaining patient data, and robot calibration errors present unique challenges for surgical robot learning. We provide an enhanced surgical digital twin with photorealistic human anatomical organs, integrated into a comprehensive simulator designed to generate high-quality synthetic data to solve fundamental tasks in surgical autonomy. We present SuFIA-BC: visual Behavior Cloning policies for Surgical First Interactive Autonomy Assistants. We investigate visual observation spaces including multi-view cameras and 3D visual representations extracted from a single endoscopic camera view. Through systematic evaluation, we find that the diverse set of photorealistic surgical tasks introduced in this work enables a comprehensive evaluation of prospective behavior cloning models for the unique challenges posed by surgical environments. We observe that current state-of-the-art behavior cloning techniques struggle to solve the contact-rich and complex tasks evaluated in this work, regardless of their underlying perception or control architectures. These findings highlight the importance of customizing perception pipelines and control architectures, as well as curating larger-scale synthetic datasets that meet the specific demands of surgical tasks. Project website: https://orbit-surgical.github.io/sufia-bc/

arxiv情報

著者 Masoud Moghani,Nigel Nelson,Mohamed Ghanem,Andres Diaz-Pinto,Kush Hari,Mahdi Azizian,Ken Goldberg,Sean Huver,Animesh Garg
発行日 2025-04-21 04:50:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | SuFIA-BC: Generating High Quality Demonstration Data for Visuomotor Policy Learning in Surgical Subtasks はコメントを受け付けていません

FERMI: Flexible Radio Mapping with a Hybrid Propagation Model and Scalable Autonomous Data Collection

要約

通信はマルチロボットコラボレーションの基本であり、正確な無線マッピングがロボット間の信号強度を予測する上で重要な役割を果たします。
ただし、大規模および閉塞環境での無線信号伝播のモデリングは、信号と障害物の間の複雑な相互作用のために困難です。
既存の方法は、2つの重要な制限に直面しています。トレーニングセットに存在しない送信機と受信者のペアの信号強度を予測するのに苦労し、モデリングには広範な手動データ収集が必要であり、大規模で障害物が豊富なシナリオでは実用的ではありません。
これらの制限を克服するために、柔軟な無線マッピングフレームワークであるFermiを提案します。
フェルミは、直接信号パスの物理ベースのモデリングとニューラルネットワークを組み合わせて、環境相互作用と無線信号をキャプチャします。
このハイブリッドモデルは、無線信号の伝播をより効率的に学習し、まばらなトレーニングデータのみを必要とします。
さらに、Fermiは、マルチロボットチームを使用して、自律データ収集のためのスケーラブルな計画方法を導入しています。
データ収集の並行性を高め、地域間のロボットの旅費を最小限に抑えることにより、全体的なデータ収集効率が大幅に改善されます。
シミュレーションと現実世界の両方のシナリオでの実験は、フェルミが正確な信号予測を可能にし、複雑な環境で目に見えない位置によく一般化することを示しています。
また、完全に自律的なデータ収集とスケールをさまざまなチームサイズにサポートし、ラジオマップを作成するための柔軟なソリューションを提供します。
私たちのコードは、https://github.com/ymluo1214/flexible-radio-mappingでオープンソーリングされています。

要約(オリジナル)

Communication is fundamental for multi-robot collaboration, with accurate radio mapping playing a crucial role in predicting signal strength between robots. However, modeling radio signal propagation in large and occluded environments is challenging due to complex interactions between signals and obstacles. Existing methods face two key limitations: they struggle to predict signal strength for transmitter-receiver pairs not present in the training set, while also requiring extensive manual data collection for modeling, making them impractical for large, obstacle-rich scenarios. To overcome these limitations, we propose FERMI, a flexible radio mapping framework. FERMI combines physics-based modeling of direct signal paths with a neural network to capture environmental interactions with radio signals. This hybrid model learns radio signal propagation more efficiently, requiring only sparse training data. Additionally, FERMI introduces a scalable planning method for autonomous data collection using a multi-robot team. By increasing parallelism in data collection and minimizing robot travel costs between regions, overall data collection efficiency is significantly improved. Experiments in both simulation and real-world scenarios demonstrate that FERMI enables accurate signal prediction and generalizes well to unseen positions in complex environments. It also supports fully autonomous data collection and scales to different team sizes, offering a flexible solution for creating radio maps. Our code is open-sourced at https://github.com/ymLuo1214/Flexible-Radio-Mapping.

arxiv情報

著者 Yiming Luo,Yunfei Wang,Hongming Chen,Chengkai Wu,Ximin Lyu,Jinni Zhou,Jun Ma,Fu Zhang,Boyu Zhou
発行日 2025-04-21 05:03:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | FERMI: Flexible Radio Mapping with a Hybrid Propagation Model and Scalable Autonomous Data Collection はコメントを受け付けていません

Tactile sensing enables vertical obstacle negotiation for elongate many-legged robots

要約

多くの足の細長いロボットは、頑丈な風景の信頼できるモビリティの有望を示しています。
ただし、これらのシステムに関するほとんどの研究は、急速な垂直運動に対処することなく、平面運動計画に焦点を当てています。
軽度の頑丈な地形での成功にもかかわらず、最近のフィールドテストは、3D行動の重要なニーズ(例えば、背の高い障害物の登山や横断)を明らかにしています。
3Dモーション計画の課題は、通常25度以上の自由度を持つ、複雑な高度の高度化システムのセンシングと制御の設計に部分的にあります。
センシングに関する最初の課題に対処するために、ロボットが障害物をプローブしてその構造に関する情報を収集できるようにする触覚アンテナシステムを提案します。
この感覚入力に基づいて、アンテナと足の接触センサーからのデータを統合して、効果的な登山のためにロボットの垂直ボディの鳴り響を動的に調整するコントロールフレームワークを開発します。
シンプルで低帯域幅の触覚センサーを追加すると、静的な安定性と冗長性が高いロボットは、単純なフィードバックコントローラーを使用した複雑な環境で予測可能なクライミングパフォーマンスを示します。
実験室と屋外の実験は、その身長の5倍まで障害物を登るロボットの能力を示しています。
さらに、ロボットは、シフト、ロボットサイズのランダムなアイテムと急速に変化する曲率を特徴とするもので覆われた障害物に堅牢なクライミング機能を示します。
これらの発見は、環境を認識し、足のロボットに対する効果的な対応を促進するための代替ソリューションを示しており、将来の非常に能力が高く、控えめな多くのロボットへの道を開いています。

要約(オリジナル)

Many-legged elongated robots show promise for reliable mobility on rugged landscapes. However, most studies on these systems focus on planar motion planning without addressing rapid vertical motion. Despite their success on mild rugged terrains, recent field tests reveal a critical need for 3D behaviors (e.g., climbing or traversing tall obstacles). The challenges of 3D motion planning partially lie in designing sensing and control for a complex high-degree-of-freedom system, typically with over 25 degrees of freedom. To address the first challenge regarding sensing, we propose a tactile antenna system that enables the robot to probe obstacles to gather information about their structure. Building on this sensory input, we develop a control framework that integrates data from the antenna and foot contact sensors to dynamically adjust the robot’s vertical body undulation for effective climbing. With the addition of simple, low-bandwidth tactile sensors, a robot with high static stability and redundancy exhibits predictable climbing performance in complex environments using a simple feedback controller. Laboratory and outdoor experiments demonstrate the robot’s ability to climb obstacles up to five times its height. Moreover, the robot exhibits robust climbing capabilities on obstacles covered with shifting, robot-sized random items and those characterized by rapidly changing curvatures. These findings demonstrate an alternative solution to perceive the environment and facilitate effective response for legged robots, paving ways towards future highly capable, low-profile many-legged robots.

arxiv情報

著者 Juntao He,Baxi Chong,Massimiliano Iaschi,Vincent R. Nienhusser,Sehoon Ha,Daniel I. Goldman
発行日 2025-04-21 05:20:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Tactile sensing enables vertical obstacle negotiation for elongate many-legged robots はコメントを受け付けていません

Never too Cocky to Cooperate: An FIM and RL-based USV-AUV Collaborative System for Underwater Tasks in Extreme Sea Conditions

要約

このホワイトペーパーでは、極端な海の状態で水中タスクのパフォーマンスを向上させるように設計された、新しい無人の表面車両(USV)自動自動水中車両(AUV)共同システムを開発します。
このシステムは、Fisher Information Matrix-Optimized USV Path Planningによって有効にされる高精度のマルチAUVローカリゼーション、および(2)マルチAUVタスク実行のための補強学習ベースの協同組合計画および制御方法を統合します。
水中データ収集タスクにおける広範な実験的評価は、システムの運用可能性を実証し、定量的な結果がベースライン方法よりも大幅なパフォーマンスの改善を示しています。
提案されたシステムは、極端な海の状態で安定性を維持しながら、USVとAUVの間に堅牢な調整機能を示します。
再現性とコミュニティの進歩を促進するために、https://github.com/360zmem/usv-auv-colabで利用できるオープンソースシミュレーションツールキットを提供します。

要約(オリジナル)

This paper develops a novel unmanned surface vehicle (USV)-autonomous underwater vehicle (AUV) collaborative system designed to enhance underwater task performance in extreme sea conditions. The system integrates a dual strategy: (1) high-precision multi-AUV localization enabled by Fisher information matrix-optimized USV path planning, and (2) reinforcement learning-based cooperative planning and control method for multi-AUV task execution. Extensive experimental evaluations in the underwater data collection task demonstrate the system’s operational feasibility, with quantitative results showing significant performance improvements over baseline methods. The proposed system exhibits robust coordination capabilities between USV and AUVs while maintaining stability in extreme sea conditions. To facilitate reproducibility and community advancement, we provide an open-source simulation toolkit available at: https://github.com/360ZMEM/USV-AUV-colab .

arxiv情報

著者 Jingzehua Xu,Guanwen Xie,Jiwei Tang,Yimian Ding,Weiyi Liu,Shuai Zhang,Yi Li
発行日 2025-04-21 06:47:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Never too Cocky to Cooperate: An FIM and RL-based USV-AUV Collaborative System for Underwater Tasks in Extreme Sea Conditions はコメントを受け付けていません

Precision Robotic Spot-Spraying: Reducing Herbicide Use and Enhancing Environmental Outcomes in Sugarcane

要約

正確なロボット雑草制御は、精密農業において重要な役割を果たします。
農業の管理コストを削減しながら、除草剤の環境への影響を大幅に軽減するのに役立ちます。
この論文では、コンピュータービジョンとディープラーニングに基づいたカスタム設計のロボットスポットスプレーツールが、サトウキビ農場での除草剤の使用を大幅に削減できることを実証します。
雑草制御の有効性、除草剤の使用の減少、および灌漑流出の水質改善を測定することにより、産業標準の放送スプレーとのロボットスポットスプレーを比較するフィールドトライアルの結果を提示します。
25ヘクタールのフィールドトライアルにわたる平均結果は、サトウキビ農場でのスポットスプレーが放送スプレーと同じくらい効果的であることを示しており、除草剤の使用が雑草密度に比例して35 \%減少します。
雑草圧力が低い特定の試験ストリップの場合、除草剤の使用量が最大65%減少しました。
噴霧後3〜6日後の灌漑誘発流出の水質測定では、放送噴霧と比較して、それぞれ39%および54 \%の平均濃度と平均除草剤の平均濃度と平均負荷が減少しました。
これらの有望な結果は、雑草防除に影響を与えず、持続的な水質の利益を提供することなく、サトウキビ農場での除草剤の使用を減らすためのスポット散布技術の能力を明らかにしています。

要約(オリジナル)

Precise robotic weed control plays an essential role in precision agriculture. It can help significantly reduce the environmental impact of herbicides while reducing weed management costs for farmers. In this paper, we demonstrate that a custom-designed robotic spot spraying tool based on computer vision and deep learning can significantly reduce herbicide usage on sugarcane farms. We present results from field trials that compare robotic spot spraying against industry-standard broadcast spraying, by measuring the weed control efficacy, the reduction in herbicide usage, and the water quality improvements in irrigation runoff. The average results across 25 hectares of field trials show that spot spraying on sugarcane farms is 97\% as effective as broadcast spraying and reduces herbicide usage by 35\%, proportionally to the weed density. For specific trial strips with lower weed pressure, spot spraying reduced herbicide usage by up to 65\%. Water quality measurements of irrigation-induced runoff, three to six days after spraying, showed reductions in the mean concentration and mean load of herbicides of 39\% and 54\%, respectively, compared to broadcast spraying. These promising results reveal the capability of spot spraying technology to reduce herbicide usage on sugarcane farms without impacting weed control and potentially providing sustained water quality benefits.

arxiv情報

著者 Mostafa Rahimi Azghadi,Alex Olsen,Jake Wood,Alzayat Saleh,Brendan Calvert,Terry Granshaw,Emilie Fillols,Bronson Philippa
発行日 2025-04-21 09:02:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Precision Robotic Spot-Spraying: Reducing Herbicide Use and Enhancing Environmental Outcomes in Sugarcane はコメントを受け付けていません