Navigating Polytopes with Safety: A Control Barrier Function Approach

要約

衝突のない動きは、多くの自律システムにとって基本的な要件です。
このペーパーでは、ポリトープ型環境でのポリトープ型エージェントの衝突のないナビゲーションのための安全性が批判的な制御アプローチを開発します。
正式な安全保証を持つコントローラーにつながる閉じた形の制御バリア関数候補を生成するための体系的な方法が提案されています。
提案されたアプローチは、動的に変化する環境を含む、2Dおよび3Dの障害物回避例を使用して、シミュレーションを通じて実証されています。

要約(オリジナル)

Collision-free motion is a fundamental requirement for many autonomous systems. This paper develops a safety-critical control approach for the collision-free navigation of polytope-shaped agents in polytope-shaped environments. A systematic method is proposed to generate control barrier function candidates in closed form that lead to controllers with formal safety guarantees. The proposed approach is demonstrated through simulation, with obstacle avoidance examples in 2D and 3D, including dynamically changing environments.

arxiv情報

著者 Tamas G. Molnar
発行日 2025-05-22 20:39:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Navigating Polytopes with Safety: A Control Barrier Function Approach はコメントを受け付けていません

ConvoyNext: A Scalable Testbed Platform for Cooperative Autonomous Vehicle Systems

要約

協力的な自動運転車システムの進歩は、交通効率、燃費、交通安全の向上を目指して、複数のエージェント間の効果的な調整に大きく依存しています。
これらの潜在的な利点にもかかわらず、このようなシステムの実際のテストは依然として大きな課題であり、制御戦略、軌跡モデリング方法、および多様な環境にわたる通信の堅牢性を検証するために不可欠です。
このニーズに対処するために、協調運転行動の実際の評価に合わせて調整されたスケーラブル、モジュール式、および拡張可能なプラットフォームであるConvoyNextを紹介します。
複雑な軌跡をナビゲートする自動運転車の輸送船団が関与する一連の実験を通じて、輸送技術の能力を実証します。
これらのテストは、異種の車両構成全体にわたるプラットフォームの堅牢性と、意図的なパケット損失を含むさまざまな通信条件下での輸送船団の行動を評価する際の有効性を強調しています。
我々の結果は、協同的自律型車両システムの研究を進めるための包括的なオープンアクセステストベッドとして輸送技術を検証します。

要約(オリジナル)

The advancement of cooperative autonomous vehicle systems depends heavily on effective coordination between multiple agents, aiming to enhance traffic efficiency, fuel economy, and road safety. Despite these potential benefits, real-world testing of such systems remains a major challenge and is essential for validating control strategies, trajectory modeling methods, and communication robustness across diverse environments. To address this need, we introduce ConvoyNext, a scalable, modular, and extensible platform tailored for the real-world evaluation of cooperative driving behaviors. We demonstrate the capabilities of ConvoyNext through a series of experiments involving convoys of autonomous vehicles navigating complex trajectories. These tests highlight the platform’s robustness across heterogeneous vehicle configurations and its effectiveness in assessing convoy behavior under varying communication conditions, including intentional packet loss. Our results validate ConvoyNext as a comprehensive, open-access testbed for advancing research in cooperative autonomous vehicle systems.

arxiv情報

著者 Hossein Maghsoumi,Yaser Fallah
発行日 2025-05-22 20:42:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | ConvoyNext: A Scalable Testbed Platform for Cooperative Autonomous Vehicle Systems はコメントを受け付けていません

Construction of an Impedance Control Test Bench

要約

人間と同様に、環境やオブジェクトとの物理的な相互作用を制御することは、さまざまな種類のロボットにわたって共有要件です。
この相互作用を効果的に制御するには、負荷に供給される電力、つまり相互作用力と相互作用速度を制御する必要があります。
ただし、これら2つの量を同時に独立して制御することはできません。
別の方法は、たとえば、インピーダンスとアドミタンス制御を使用して、それらの関係を制御することです。
インピーダンス制御2次元(IC2D)ベンチは、関節レベルで異なるアクチュエーターとコントローラーのパフォーマンス分析を可能にするために設計されたテストベンチです。
したがって、線形および/または回転運動の組み合わせを可能にし、電気および/または油圧アクチュエーターを使用して、ユーザーが既知および/または油圧アクチュエータを使用できるように、可能な限り汎用性が高いように設計されました。
ベンチは、研究グループの需要によって定義された一連の要件を遵守し、システムのダイナミクスモデルとコントローラーの設計を検証するための信頼性の高いバックラッシュフリーメカトロニクスシステムであり、電気および油圧アクチュエーターのベンチマークのための貴重な実験セットアップです。
この記事では、テストベンチの堅牢性と信頼性を確保するために使用される機械的、電気的、油圧構成を紹介します。
これに類似したベンチは、世界中のロボット研究所でよく見られます。
ただし、IC2Dは、その汎用性と信頼性、および油圧および電気アクチュエーターのサポートで際立っています。

要約(オリジナル)

Controlling the physical interaction with the environment or objects, as humans do, is a shared requirement across different types of robots. To effectively control this interaction, it is necessary to control the power delivered to the load, that is, the interaction force and the interaction velocity. However, it is not possible to control these two quantities independently at the same time. An alternative is to control the relation between them, with Impedance and Admittance control, for example. The Impedance Control 2 Dimensions (IC2D) bench is a test bench designed to allow the performance analysis of different actuators and controllers at the joint level. Therefore, it was designed to be as versatile as possible, to allow the combination of linear and/or rotational motions, to use electric and/or hydraulic actuators, with loads known and defined by the user. The bench adheres to a set of requirements defined by the demands of the research group, to be a reliable, backlash-free mechatronic system to validate system dynamics models and controller designs, as well as a valuable experimental setup for benchmarking electric and hydraulic actuators. This article presents the mechanical, electrical, and hydraulic configurations used to ensure the robustness and reliability of the test bench. Benches similar to this one are commonly found in robotics laboratories around the world. However, the IC2D stands out for its versatility and reliability, as well as for supporting hydraulic and electric actuators.

arxiv情報

著者 Elisa G. Vergamini,Leonardo F. Dos Santos,Cícero Zanette,Yecid Moreno,Felix M. Escalante,Thiago Boaventura
発行日 2025-05-22 20:53:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Construction of an Impedance Control Test Bench はコメントを受け付けていません

ScanBot: Towards Intelligent Surface Scanning in Embodied Robotic Systems

要約

ロボットシステムで命令が条件付けされた高精度の表面スキャン向けに設計された新しいデータセットであるScanbotを紹介します。
把握、ナビゲーション、ダイアログなどの粗いタスクに焦点を当てた既存のロボット学習データセットとは対照的に、スキャンボットは、サブミリメーターのパスの連続性とパラメーターの安定性が重要である産業レーザースキャンの高精度の要求をターゲットにします。
データセットは、12の多様なオブジェクトと、フル表面スキャン、ジオメトリに焦点を当てた領域、空間参照部品、機能的に関連する構造、欠陥検査、および比較分析など、ロボットによって実行されるレーザースキャン軌道をカバーします。
各スキャンは、自然言語の指示に導かれ、同期されたRGB、深さ、レーザープロファイル、およびロボットのポーズとジョイント状態と組み合わされます。
最近の進歩にもかかわらず、既存のビジョン言語アクション(VLA)モデルは、きめ細かい指示と実際の精度の需要の下で安定したスキャン軌跡を生成できません。
この制限を調査するために、完全な知覚計画と解釈のループ全体にわたって、さまざまなマルチモーダル大手言語モデル(MLLM)をベンチマークし、現実的な制約の下で指導を提供する際の持続的な課題を明らかにします。

要約(オリジナル)

We introduce ScanBot, a novel dataset designed for instruction-conditioned, high-precision surface scanning in robotic systems. In contrast to existing robot learning datasets that focus on coarse tasks such as grasping, navigation, or dialogue, ScanBot targets the high-precision demands of industrial laser scanning, where sub-millimeter path continuity and parameter stability are critical. The dataset covers laser scanning trajectories executed by a robot across 12 diverse objects and 6 task types, including full-surface scans, geometry-focused regions, spatially referenced parts, functionally relevant structures, defect inspection, and comparative analysis. Each scan is guided by natural language instructions and paired with synchronized RGB, depth, and laser profiles, as well as robot pose and joint states. Despite recent progress, existing vision-language action (VLA) models still fail to generate stable scanning trajectories under fine-grained instructions and real-world precision demands. To investigate this limitation, we benchmark a range of multimodal large language models (MLLMs) across the full perception-planning-execution loop, revealing persistent challenges in instruction-following under realistic constraints.

arxiv情報

著者 Zhiling Chen,Yang Zhang,Fardin Jalil Piran,Qianyu Zhou,Jiong Tang,Farhad Imani
発行日 2025-05-22 21:22:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | ScanBot: Towards Intelligent Surface Scanning in Embodied Robotic Systems はコメントを受け付けていません

UAV Control with Vision-based Hand Gesture Recognition over Edge-Computing

要約

ジェスチャー認識は、その直感的な性質と正確な相互作用の可能性のために、無人航空機(UAV)とのインターフェースのための有望な手段を提示します。
この研究では、UAVコントロールに合わせた視覚ベースのハンドジェスチャー検出方法論の包括的な比較分析を実施しています。
作物、ズーム、色ベースのセグメンテーションを含む既存のジェスチャー認識アプローチは、動的な条件でのこの種のアプリケーションにとってうまく機能し、距離と環境ノイズの増加に伴ってパフォーマンスに苦しむことはありません。
ジェスチャー認識に基づくUAVコントロールのために、ハンドランドマークの描画と分類を活用する新しいアプローチを使用することを提案します。
実験結果では、提案された方法が、さまざまな距離にわたる精度、ノイズの回復力、および有効性の点で他の既存の方法を上回り、したがって、堅牢な制御決定を提供することを示しています。
ただし、UAVのオンボードコンピューターにディープラーニングベースのコンピューティング集中ジェスチャー認識アルゴリズムを実装することは、パフォーマンスの点で非常に困難です。
したがって、より重いコンピューティングタスクをオフロードするために、エッジコンピューティングベースのフレームワークを使用して、クローズドループのリアルタイムパフォーマンスを実現することを提案します。
Airsim SimulatorおよびReal World UAVを介した実装により、エンドツーエンドのジェスチャー認識ベースのUAV制御システムの利点を紹介します。

要約(オリジナル)

Gesture recognition presents a promising avenue for interfacing with unmanned aerial vehicles (UAVs) due to its intuitive nature and potential for precise interaction. This research conducts a comprehensive comparative analysis of vision-based hand gesture detection methodologies tailored for UAV Control. The existing gesture recognition approaches involving cropping, zooming, and color-based segmentation, do not work well for this kind of applications in dynamic conditions and suffer in performance with increasing distance and environmental noises. We propose to use a novel approach leveraging hand landmarks drawing and classification for gesture recognition based UAV control. With experimental results we show that our proposed method outperforms the other existing methods in terms of accuracy, noise resilience, and efficacy across varying distances, thus providing robust control decisions. However, implementing the deep learning based compute intensive gesture recognition algorithms on the UAV’s onboard computer is significantly challenging in terms of performance. Hence, we propose to use a edge-computing based framework to offload the heavier computing tasks, thus achieving closed-loop real-time performance. With implementation over AirSim simulator as well as over a real-world UAV, we showcase the advantage of our end-to-end gesture recognition based UAV control system.

arxiv情報

著者 Sousannah Abdalla,Sabur Baidya
発行日 2025-05-22 21:39:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | UAV Control with Vision-based Hand Gesture Recognition over Edge-Computing はコメントを受け付けていません

Self-supervised Multi-future Occupancy Forecasting for Autonomous Driving

要約

環境予測フレームワークは、動的設定での自律車両(AV)の安全なナビゲーションにとって重要です。
Lidar生成の占有グリッドマップ(L-GMS)は、シーン表現の堅牢な鳥瞰図を提供し、部分的な観察性と知覚検出障害の回復力を示しながら、自己監視の共同シーンの予測を可能にします。
以前のアプローチは、グリッドセル空間内の決定論的L-GM予測アーキテクチャに焦点を合わせています。
これらの方法ではある程度の成功が見られますが、頻繁に非現実的な予測を生み出し、環境の確率的性質を捉えることができません。
さらに、AVSに存在する追加のセンサーモダリティを効果的に統合しません。
提案されたフレームワークである潜在的な占有予測(LOPR)は、生成アーキテクチャの潜在的な空間で確率的L-GM予測を実行し、RGBカメラ、マップ、および計画された軌跡のコンディショニングを可能にします。
リアルタイムで高品質の予測を提供するシングルステップデコーダーを使用して予測をデコードするか、拡散ベースのバッチデコーダーを使用して、デコードされたフレームをさらに改良して、時間的一貫性の問題に対処し、圧縮損失を減らすことができます。
ヌスセンとWaymoオープンデータセットに関する実験は、アプローチのすべてのバリエーションが定性的かつ定量的に以前のアプローチを上回ることを示しています。

要約(オリジナル)

Environment prediction frameworks are critical for the safe navigation of autonomous vehicles (AVs) in dynamic settings. LiDAR-generated occupancy grid maps (L-OGMs) offer a robust bird’s-eye view for the scene representation, enabling self-supervised joint scene predictions while exhibiting resilience to partial observability and perception detection failures. Prior approaches have focused on deterministic L-OGM prediction architectures within the grid cell space. While these methods have seen some success, they frequently produce unrealistic predictions and fail to capture the stochastic nature of the environment. Additionally, they do not effectively integrate additional sensor modalities present in AVs. Our proposed framework, Latent Occupancy Prediction (LOPR), performs stochastic L-OGM prediction in the latent space of a generative architecture and allows for conditioning on RGB cameras, maps, and planned trajectories. We decode predictions using either a single-step decoder, which provides high-quality predictions in real-time, or a diffusion-based batch decoder, which can further refine the decoded frames to address temporal consistency issues and reduce compression losses. Our experiments on the nuScenes and Waymo Open datasets show that all variants of our approach qualitatively and quantitatively outperform prior approaches.

arxiv情報

著者 Bernard Lange,Masha Itkina,Jiachen Li,Mykel J. Kochenderfer
発行日 2025-05-22 21:51:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | Self-supervised Multi-future Occupancy Forecasting for Autonomous Driving はコメントを受け付けていません

Unified World Models: Coupling Video and Action Diffusion for Pretraining on Large Robotic Datasets

要約

模倣学習は、ジェネラリストのロボットを構築するための有望なアプローチとして浮上しています。
ただし、高品質の専門家デモに依存しているため、大規模なロボットファンデーションモデルの模倣学習のスケーリング学習は依然として困難です。
一方、幅広い環境と多様な動作を描いた大量のビデオデータを容易に入手できます。
このデータは、実際のダイナミクスとエージェントと環境の相互作用に関する豊富な情報源を提供します。
ただし、模倣学習のためにこのデータを直接活用することは、アクション注釈がないために困難であることが証明されています。
この作業では、統一された世界モデル(UWM)を提示します。これは、ポリシー学習のビデオとアクションデータの両方を活用できるフレームワークです。
具体的には、UWMは、独立した拡散タイムステップが各モダリティを支配する統合されたトランスアーキテクチャ内で、アクション拡散プロセスとビデオ拡散プロセスを統合します。
各拡散タイムステップを制御することにより、UWMはポリシー、前方のダイナミクス、逆ダイナミクス、ビデオジェネレーターを柔軟に表現できます。
シミュレートされた実世界の実験を通じて、次のことを示します。(1)UWMは、ダイナミクスとアクション予測の両方を備えた大規模なマルチタスクロボットデータセットで効果的な事前化を可能にし、模倣学習よりも一般化可能で堅牢なポリシーをもたらします。
我々の結果は、UWMがスケーラブルなロボット学習のために大規模で不均一なデータセットを活用するための有望なステップを提供し、模倣学習と世界モデリングのしばしば異なるパラダイムの間の簡単な統一を提供することを示唆しています。
ビデオとコードはhttps://weirdlabuw.github.io/uwm/で入手できます。

要約(オリジナル)

Imitation learning has emerged as a promising approach towards building generalist robots. However, scaling imitation learning for large robot foundation models remains challenging due to its reliance on high-quality expert demonstrations. Meanwhile, large amounts of video data depicting a wide range of environments and diverse behaviors are readily available. This data provides a rich source of information about real-world dynamics and agent-environment interactions. Leveraging this data directly for imitation learning, however, has proven difficult due to the lack of action annotation. In this work, we present Unified World Models (UWM), a framework that allows for leveraging both video and action data for policy learning. Specifically, a UWM integrates an action diffusion process and a video diffusion process within a unified transformer architecture, where independent diffusion timesteps govern each modality. By controlling each diffusion timestep, UWM can flexibly represent a policy, a forward dynamics, an inverse dynamics, and a video generator. Through simulated and real-world experiments, we show that: (1) UWM enables effective pretraining on large-scale multitask robot datasets with both dynamics and action predictions, resulting in more generalizable and robust policies than imitation learning, (2) UWM naturally facilitates learning from action-free video data through independent control of modality-specific diffusion timesteps, further improving the performance of finetuned policies. Our results suggest that UWM offers a promising step toward harnessing large, heterogeneous datasets for scalable robot learning, and provides a simple unification between the often disparate paradigms of imitation learning and world modeling. Videos and code are available at https://weirdlabuw.github.io/uwm/.

arxiv情報

著者 Chuning Zhu,Raymond Yu,Siyuan Feng,Benjamin Burchfiel,Paarth Shah,Abhishek Gupta
発行日 2025-05-23 00:47:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO | Unified World Models: Coupling Video and Action Diffusion for Pretraining on Large Robotic Datasets はコメントを受け付けていません

Bootstrapping Imitation Learning for Long-horizon Manipulation via Hierarchical Data Collection Space

要約

人間のデモを備えた模倣学習(IL)は、ロボット操作タスクの有望な方法です。
最小限のデモンストレーションはロボットアクションの実行を可能にしますが、高い成功率と一般化を達成するには、高コストが必要です。たとえば、データを継続的に追加するか、複雑なハードウェア/ソフトウェアシステムで人間のループプロセスを段階的に実行する必要があります。
この論文では、データ収集パイプラインの状態/アクション空間と、非ロバストアクションの予測の原因となる根本的な要因を再考します。
この目的のために、シンプルなデータ収集スキームであるロボット模倣学習のための階層データ収集スペース(HDスペース)を導入し、モデルをプロアクティブで高品質のデータでトレーニングするようにします。
具体的には、高レベルの観点から細かい操作タスクを複数のキー原子タスクに分割し、堅牢なILデータを生成することを目的とした、人間のデモのために原子状態/アクションスペースを設計します。
2つのシミュレーションと5つの実際の長老操作タスクで経験的評価を実施し、HDスペースベースのデータを使用したILポリシートレーニングが政策パフォーマンスを大幅に強化できることを実証しています。
HDスペースにより、特に長老操作タスクのために、より強力なポリシーをトレーニングするために、少量のデモデータを使用することができます。
HDスペースは、データの品質を最適化し、データスケーリングをガイドすることに関する洞察を提供することを目指しています。
プロジェクトページ:https://hd-pace-robotics.github.io。

要約(オリジナル)

Imitation learning (IL) with human demonstrations is a promising method for robotic manipulation tasks. While minimal demonstrations enable robotic action execution, achieving high success rates and generalization requires high cost, e.g., continuously adding data or incrementally conducting human-in-loop processes with complex hardware/software systems. In this paper, we rethink the state/action space of the data collection pipeline as well as the underlying factors responsible for the prediction of non-robust actions. To this end, we introduce a Hierarchical Data Collection Space (HD-Space) for robotic imitation learning, a simple data collection scheme, endowing the model to train with proactive and high-quality data. Specifically, We segment the fine manipulation task into multiple key atomic tasks from a high-level perspective and design atomic state/action spaces for human demonstrations, aiming to generate robust IL data. We conduct empirical evaluations across two simulated and five real-world long-horizon manipulation tasks and demonstrate that IL policy training with HD-Space-based data can achieve significantly enhanced policy performance. HD-Space allows the use of a small amount of demonstration data to train a more powerful policy, particularly for long-horizon manipulation tasks. We aim for HD-Space to offer insights into optimizing data quality and guiding data scaling. project page: https://hd-space-robotics.github.io.

arxiv情報

著者 Jinrong Yang,Kexun Chen,Zhuoling Li,Shengkai Wu,Yong Zhao,Liangliang Ren,Wenqiu Luo,Chaohui Shang,Meiyu Zhi,Linfeng Gao,Mingshan Sun,Hui Cheng
発行日 2025-05-23 01:57:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | Bootstrapping Imitation Learning for Long-horizon Manipulation via Hierarchical Data Collection Space はコメントを受け付けていません

Dynamic Manipulation of Deformable Objects in 3D: Simulation, Benchmark and Learning Strategy

要約

目標条件付きの動的操作は、特に高度の自由と過小評価を特徴とする変形可能なオブジェクトシナリオにおいて、複雑なシステムダイナミクスと厳しいタスクの制約により、本質的に困難です。
以前の方法は、多くの場合、問題を低速または2D設定に簡素化し、実際の3Dタスクへの適用性を制限します。
この作業では、代表的な課題として3Dゴールコンディショニングされたロープ操作を探ります。
データ不足を緩和するために、コンパクトな状態表現を可能にし、効率的な政策学習を促進する、低秩序ダイナミクスに基づいた新しいシミュレーションフレームワークとベンチマークを導入します。
これに基づいて、模倣前のテスト時間適応と模倣前のテスト時間適応を統合するフレームワークであるダイナミクスに情報に基づいた拡散ポリシー(DIDP)を提案します。
まず、縮小順序空間内で逆ダイナミクスを学習する拡散ポリシーを設計し、模倣学習がデータの適合を超えて動き、基礎となる物理構造をキャプチャできるようにします。
第二に、拡散プロセスに運動学的境界条件と構造化されたダイナミクスが課される物理学に基づいたテスト時間適応スキームを提案し、操作実行の一貫性と信頼性を確保します。
広範な実験では、提案されたアプローチを検証し、学習ポリシーの精度と堅牢性の観点から強力なパフォーマンスを実証します。

要約(オリジナル)

Goal-conditioned dynamic manipulation is inherently challenging due to complex system dynamics and stringent task constraints, particularly in deformable object scenarios characterized by high degrees of freedom and underactuation. Prior methods often simplify the problem to low-speed or 2D settings, limiting their applicability to real-world 3D tasks. In this work, we explore 3D goal-conditioned rope manipulation as a representative challenge. To mitigate data scarcity, we introduce a novel simulation framework and benchmark grounded in reduced-order dynamics, which enables compact state representation and facilitates efficient policy learning. Building on this, we propose Dynamics Informed Diffusion Policy (DIDP), a framework that integrates imitation pretraining with physics-informed test-time adaptation. First, we design a diffusion policy that learns inverse dynamics within the reduced-order space, enabling imitation learning to move beyond na\’ive data fitting and capture the underlying physical structure. Second, we propose a physics-informed test-time adaptation scheme that imposes kinematic boundary conditions and structured dynamics priors on the diffusion process, ensuring consistency and reliability in manipulation execution. Extensive experiments validate the proposed approach, demonstrating strong performance in terms of accuracy and robustness in the learned policy.

arxiv情報

著者 Guanzhou Lan,Yuqi Yang,Anup Teejo Mathew,Feiping Nie,Rong Wang,Xuelong Li,Federico Renda,Bin Zhao
発行日 2025-05-23 03:28:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | Dynamic Manipulation of Deformable Objects in 3D: Simulation, Benchmark and Learning Strategy はコメントを受け付けていません

HEPP: Hyper-efficient Perception and Planning for High-speed Obstacle Avoidance of UAVs

要約

散らかった環境での非公開の航空機(UAV)の高速障害回避は、重要な課題です。
既存のUAV計画と障害物回避システムは、中程度の速度でのみ、または空のフィールドまたはスパースフィールドを超える高速でのみ飛行できます。
この記事では、UAVの高速障害物回避のための超効率的な認識と計画システムを提案します。
このシステムは、主に3つのモジュールで構成されています。1)距離情報と勾配情報を備えた新しいインクリメンタルロボセントリックマッピング方法。既存の方法と比較して時間が89.5%短くなります。
2)複数の異なるパスを生成する新しい障害物を認識しているトポロジカルパス検索方法。
3)新しい時間前配分アルゴリズムを備えた適応勾配ベースの高速軌道生成法。
これらのイノベーションにより、このシステムは、各反復でミリ秒遅延しかない優れたリアルタイムパフォーマンスを備えており、既存の方法(散らかった環境では15 m/s)よりも79.24%短い時間をかけて、UAVが迅速に飛び、散らかった環境の障害を回避できます。
UAVの計画された軌跡は、時間的ドメインと空間ドメインの両方でグローバルな最適に近いものです。
最後に、シミュレーションと現実世界の両方の実験の両方で広範な検証は、散らかった環境での高速ナビゲーションのための提案されたシステムの有効性を示しています。

要約(オリジナル)

High-speed obstacle avoidance of uncrewed aerial vehicles (UAVs) in cluttered environments is a significant challenge. Existing UAV planning and obstacle avoidance systems can only fly at moderate speeds or at high speeds over empty or sparse fields. In this article, we propose a hyper-efficient perception and planning system for the high-speed obstacle avoidance of UAVs. The system mainly consists of three modules: 1) A novel incremental robocentric mapping method with distance and gradient information, which takes 89.5% less time compared to existing methods. 2) A novel obstacle-aware topological path search method that generates multiple distinct paths. 3) An adaptive gradient-based high-speed trajectory generation method with a novel time pre-allocation algorithm. With these innovations, the system has an excellent real-time performance with only milliseconds latency in each iteration, taking 79.24% less time than existing methods at high speeds (15 m/s in cluttered environments), allowing UAVs to fly swiftly and avoid obstacles in cluttered environments. The planned trajectory of the UAV is close to the global optimum in both temporal and spatial domains. Finally, extensive validations in both simulation and real-world experiments demonstrate the effectiveness of our proposed system for high-speed navigation in cluttered environments.

arxiv情報

著者 Minghao Lu,Xiyu Fan,Bowen Xu,Zexuan Yan,Rui Peng,Han Chen,Lixian Zhang,Peng Lu
発行日 2025-05-23 03:37:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | HEPP: Hyper-efficient Perception and Planning for High-speed Obstacle Avoidance of UAVs はコメントを受け付けていません