Following Is All You Need: Robot Crowd Navigation Using People As Planners

要約

混雑した環境をナビゲートするには、ロボットに高レベルの推論と計画技術を装備する必要があります。
既存の作品は、人間の知性の役割を無視しながら、複雑でヘビー級プランナーの開発に焦点を当てています。
人間は群衆ナビゲーションの設定でも広く利用できる非常に有能なエージェントであるため、ロボットが人々をプランナーとして利用して、効果的な計画決定と社会的行動の恩恵を受ける代替スキームを提案します。
一連のルールベースの評価を通じて、ロボットを目標に向けて導く可能性を示す適切な人間のリーダーを特定します。
シンプルなベースプランナーを使用して、ロボットは、達成するために簡単に設計されたShorthorizo​​nのサブゴールを通じて、選択されたリーダーに従います。
シミュレートされた実験と現実世界の両方の実験を通じて、私たちの新しいフレームワークは、予測的またはデータ駆動型モジュールがなくても、既存のプランナーと比較して安全で効率的なロボット計画を生成することを実証します。
また、私たちの方法は、交通規則や社会的規範を明示的に定義することなく、人間のようなロボット行動をもたらします。
コードはhttps://github.com/centilinda/peopleasplanner.gitで入手できます。

要約(オリジナル)

Navigating in crowded environments requires the robot to be equipped with high-level reasoning and planning techniques. Existing works focus on developing complex and heavyweight planners while ignoring the role of human intelligence. Since humans are highly capable agents who are also widely available in a crowd navigation setting, we propose an alternative scheme where the robot utilises people as planners to benefit from their effective planning decisions and social behaviours. Through a set of rule-based evaluations, we identify suitable human leaders who exhibit the potential to guide the robot towards its goal. Using a simple base planner, the robot follows the selected leader through shorthorizon subgoals that are designed to be straightforward to achieve. We demonstrate through both simulated and real-world experiments that our novel framework generates safe and efficient robot plans compared to existing planners, even without predictive or data-driven modules. Our method also brings human-like robot behaviours without explicitly defining traffic rules and social norms. Code will be available at https://github.com/centiLinda/PeopleAsPlanner.git.

arxiv情報

著者 Yuwen Liao,Xinhang Xu,Ruofei Bai,Yizhuo Yang,Muqing Cao,Shenghai Yuan,Lihua Xie
発行日 2025-04-15 03:11:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Following Is All You Need: Robot Crowd Navigation Using People As Planners はコメントを受け付けていません

Hallucination-Aware Generative Pretrained Transformer for Cooperative Aerial Mobility Control

要約

このペーパーでは、効率的で信頼性の高い無人航空機(UAV)ラストマイル配達のために、生成された前提条件の変圧器(GPT)と補強学習(RL)を統合する2層のフレームワークであるSafeGPTを提案します。
提案された設計では、グローバルGPTモジュールはセクターの割り当てなどの高レベルのタスクを割り当て、デバイス上のGPTはリアルタイムのローカルルート計画を管理します。
RLベースの安全フィルターは、各GPTの決定を監視し、バッテリーの枯渇や訪問の重複につながる可能性のある安全でないアクションをオーバーライドし、幻覚を効果的に軽減します。
さらに、デュアルリプレイバッファーメカニズムは、GPTモジュールとRLエージェントの両方が時間の経過とともに戦略を改良するのに役立ちます。
シミュレーション結果は、SafeGPTがGPTのみのベースラインと比較してより高い配信成功率を達成し、バッテリーの消費と移動距離を大幅に削減することを示しています。
これらの調査結果は、GPTベースのセマンティック推論と正式な安全保証を組み合わせることの有効性を検証し、堅牢でエネルギー効率の高いUAVロジスティクスのための実行可能なソリューションを提供します。

要約(オリジナル)

This paper proposes SafeGPT, a two-tiered framework that integrates generative pretrained transformers (GPTs) with reinforcement learning (RL) for efficient and reliable unmanned aerial vehicle (UAV) last-mile deliveries. In the proposed design, a Global GPT module assigns high-level tasks such as sector allocation, while an On-Device GPT manages real-time local route planning. An RL-based safety filter monitors each GPT decision and overrides unsafe actions that could lead to battery depletion or duplicate visits, effectively mitigating hallucinations. Furthermore, a dual replay buffer mechanism helps both the GPT modules and the RL agent refine their strategies over time. Simulation results demonstrate that SafeGPT achieves higher delivery success rates compared to a GPT-only baseline, while substantially reducing battery consumption and travel distance. These findings validate the efficacy of combining GPT-based semantic reasoning with formal safety guarantees, contributing a viable solution for robust and energy-efficient UAV logistics.

arxiv情報

著者 Hyojun Ahn,Seungcheol Oh,Gyu Seon Kim,Soyi Jung,Soohyun Park,Joongheon Kim
発行日 2025-04-15 03:21:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T05, cs.AI, cs.RO | Hallucination-Aware Generative Pretrained Transformer for Cooperative Aerial Mobility Control はコメントを受け付けていません

LanguageMPC: Large Language Models as Decision Makers for Autonomous Driving

要約

既存の学習ベースの自律運転(AD)システムは、高レベルの情報を理解し、まれなイベントに一般化し、解釈可能性を提供する上で課題に直面しています。
これらの問題に対処するために、この作業は、人間の常識的理解を必要とする複雑な広告シナリオの意思決定コンポーネントとして、大規模な言語モデル(LLM)を採用しています。
認知経路を考案して、LLMを使用して包括的な推論を可能にし、LLMの決定を実用的な運転コマンドに変換するためのアルゴリズムを開発します。
このアプローチを通じて、LLMの決定は、ガイド付きパラメーターマトリックスの適応により、低レベルのコントローラーとシームレスに統合されます。
広範な実験は、提案された方法が、単一車両タスクのベースラインアプローチを一貫して上回るだけでなく、LLMSの常識的な推論能力のおかげで、複雑な運転行動をマルチベヒクル調整でも処理するのに役立つことを示しています。
このホワイトペーパーでは、LLMを、安全性、効率、一般化可能性、および相互運用性の観点から、複雑な広告シナリオの効果的な意思決定者として活用するための最初のステップを紹介します。
私たちは、この分野での将来の研究のインスピレーションとして機能することを目指しています。
プロジェクトページ:https://sites.google.com/view/llm-mpc

要約(オリジナル)

Existing learning-based autonomous driving (AD) systems face challenges in comprehending high-level information, generalizing to rare events, and providing interpretability. To address these problems, this work employs Large Language Models (LLMs) as a decision-making component for complex AD scenarios that require human commonsense understanding. We devise cognitive pathways to enable comprehensive reasoning with LLMs, and develop algorithms for translating LLM decisions into actionable driving commands. Through this approach, LLM decisions are seamlessly integrated with low-level controllers by guided parameter matrix adaptation. Extensive experiments demonstrate that our proposed method not only consistently surpasses baseline approaches in single-vehicle tasks, but also helps handle complex driving behaviors even multi-vehicle coordination, thanks to the commonsense reasoning capabilities of LLMs. This paper presents an initial step toward leveraging LLMs as effective decision-makers for intricate AD scenarios in terms of safety, efficiency, generalizability, and interoperability. We aspire for it to serve as inspiration for future research in this field. Project page: https://sites.google.com/view/llm-mpc

arxiv情報

著者 Hao Sha,Yao Mu,Yuxuan Jiang,Li Chen,Chenfeng Xu,Ping Luo,Shengbo Eben Li,Masayoshi Tomizuka,Wei Zhan,Mingyu Ding
発行日 2025-04-15 03:45:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CV, cs.LG, cs.RO | LanguageMPC: Large Language Models as Decision Makers for Autonomous Driving はコメントを受け付けていません

ZeroGrasp: Zero-Shot Shape Reconstruction Enabled Robotic Grasping

要約

ロボット把握は、具体化されたシステムの基礎能力です。
多くの方法は、シーンのジオメトリをモデル化することなく、部分情報から直接出力を把握し、最適ではない動きや衝突さえも導きます。
これらの問題に対処するために、3D再構成を実行し、ポーズ予測をほぼリアルタイムで把握する新しいフレームワークであるZerograspを紹介します。
私たちの方法の重要な洞察は、オクルージョンの推論とオブジェクト間の空間的関係をモデル化することが、正確な再構築と把握の両方に有益であるということです。
私たちは、1Mの写真と現実的な画像、高解像度の3D再構成、および11.3bの物理的に検証された把握が、Objaverse-LVISデータセットからの12Kオブジェクトの注釈をポーズにする11.3bの物理的に検証する新しい大規模な合成データセットと、この方法を結合します。
GRASPNET-1Bベンチマークと実際のロボット実験を通じてZerograspを評価します。
Zerograspは、最先端のパフォーマンスを達成し、合成データを活用することにより、新しい実世界のオブジェクトに一般化します。

要約(オリジナル)

Robotic grasping is a cornerstone capability of embodied systems. Many methods directly output grasps from partial information without modeling the geometry of the scene, leading to suboptimal motion and even collisions. To address these issues, we introduce ZeroGrasp, a novel framework that simultaneously performs 3D reconstruction and grasp pose prediction in near real-time. A key insight of our method is that occlusion reasoning and modeling the spatial relationships between objects is beneficial for both accurate reconstruction and grasping. We couple our method with a novel large-scale synthetic dataset, which comprises 1M photo-realistic images, high-resolution 3D reconstructions and 11.3B physically-valid grasp pose annotations for 12K objects from the Objaverse-LVIS dataset. We evaluate ZeroGrasp on the GraspNet-1B benchmark as well as through real-world robot experiments. ZeroGrasp achieves state-of-the-art performance and generalizes to novel real-world objects by leveraging synthetic data.

arxiv情報

著者 Shun Iwase,Zubair Irshad,Katherine Liu,Vitor Guizilini,Robert Lee,Takuya Ikeda,Ayako Amma,Koichi Nishiwaki,Kris Kitani,Rares Ambrus,Sergey Zakharov
発行日 2025-04-15 04:37:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | ZeroGrasp: Zero-Shot Shape Reconstruction Enabled Robotic Grasping はコメントを受け付けていません

A Sublinear Algorithm for Path Feasibility Among Rectangular Obstacles

要約

障害を避けながら2つのポイント間のパスを見つけるという問題は、ロボットパス計画で重要です。
実現可能性の問題に焦点を当てています。そのようなパスが存在するかどうかを判断します。
ロボットを、側面に平行に移動できるクエリ固有の長方形のオブジェクトとしてモデル化します。
障害物は軸に合わせられ、長方形であり、重複する場合があります。
以前の作品のほとんどは、非任務の長方形オブジェクトとポイントサイズまたは静的サイズのロボットのみを考慮しています。
私たちのアプローチでは、一般化されたガブリエルグラフを活用する新しい手法を導入し、データ構造を構築して、副回数のロボットサイズのさまざまなロボットサイズでパスの実現可能性に関するオンラインクエリを促進します。
実現可能性クエリを効率的に処理するために、スイープラインを使用してオンラインアルゴリズムを提案して、$ l_ \ infty $ normの下に一般化されたガブリエルグラフを構築し、障害物間のキーギャップ制約をキャプチャします。
永続的な分離セットの組合データ構造を利用して、$ \ mathcal {o}(\ log n)$ timeおよび$ \ mathcal {o}(n)$合計スペースの実現可能性クエリを効率的に決定します。

要約(オリジナル)

The problem of finding a path between two points while avoiding obstacles is critical in robotic path planning. We focus on the feasibility problem: determining whether such a path exists. We model the robot as a query-specific rectangular object capable of moving parallel to its sides. The obstacles are axis-aligned, rectangular, and may overlap. Most previous works only consider nondisjoint rectangular objects and point-sized or statically sized robots. Our approach introduces a novel technique leveraging generalized Gabriel graphs and constructs a data structure to facilitate online queries regarding path feasibility with varying robot sizes in sublinear time. To efficiently handle feasibility queries, we propose an online algorithm utilizing sweep line to construct a generalized Gabriel graph under the $L_\infty$ norm, capturing key gap constraints between obstacles. We utilize a persistent disjoint-set union data structure to efficiently determine feasibility queries in $\mathcal{O}(\log n)$ time and $\mathcal{O}(n)$ total space.

arxiv情報

著者 Alex Fan,Alicia Li,Arul Kolla,Jason Gonzalez
発行日 2025-04-15 04:40:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CG, cs.RO | A Sublinear Algorithm for Path Feasibility Among Rectangular Obstacles はコメントを受け付けていません

$π$-MPPI: A Projection-based Model Predictive Path Integral Scheme for Smooth Optimal Control of Fixed-Wing Aerial Vehicles

要約

モデル予測パス積分(MPPI)は、非線形システムの一般的なサンプリングベースのモデル予測制御(MPC)アルゴリズムです。
制御シーケンスをサンプリングして平均化することにより、軌跡を最適化します。
ただし、MPPIの重要な問題は、最適な制御シーケンスの非滑らかさであり、固定翼航空車両(FWV)などのシステムの振動につながります。
既存のソリューションは、コントロール誘導体をバインドできない事後平滑化を使用します。
このペーパーでは、新しいアプローチを紹介します。プロジェクションフィルター$ \ pi $を追加して、コントロールサンプルを最小限に補正し、制御の大きさと高次のデリバティブの境界を確保します。
フィルターされたサンプルはMPPIを使用して平均化され、$ \ pi $ -MPPIアプローチにつながります。
投影フィルターに神経加速カスタムオプティマイザーを使用することにより、計算オーバーヘッドを最小限に抑えます。
$ \ pi $ -mppiは、制御シーケンスで任意の滑らかさを実現する簡単な方法を提供します。
FWVに焦点を当てている間、この投影フィルターは任意のMPPIパイプラインに統合できます。
FWVSに適用される$ \ PI $ -MPPIは、ベースラインよりもチューニングが簡単で、よりスムーズでより堅牢なパフォーマンスをもたらします。

要約(オリジナル)

Model Predictive Path Integral (MPPI) is a popular sampling-based Model Predictive Control (MPC) algorithm for nonlinear systems. It optimizes trajectories by sampling control sequences and averaging them. However, a key issue with MPPI is the non-smoothness of the optimal control sequence, leading to oscillations in systems like fixed-wing aerial vehicles (FWVs). Existing solutions use post-hoc smoothing, which fails to bound control derivatives. This paper introduces a new approach: we add a projection filter $\pi$ to minimally correct control samples, ensuring bounds on control magnitude and higher-order derivatives. The filtered samples are then averaged using MPPI, leading to our $\pi$-MPPI approach. We minimize computational overhead by using a neural accelerated custom optimizer for the projection filter. $\pi$-MPPI offers a simple way to achieve arbitrary smoothness in control sequences. While we focus on FWVs, this projection filter can be integrated into any MPPI pipeline. Applied to FWVs, $\pi$-MPPI is easier to tune than the baseline, resulting in smoother, more robust performance.

arxiv情報

著者 Edvin Martin Andrejev,Amith Manoharan,Karl-Eerik Unt,Arun Kumar Singh
発行日 2025-04-15 08:11:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | $π$-MPPI: A Projection-based Model Predictive Path Integral Scheme for Smooth Optimal Control of Fixed-Wing Aerial Vehicles はコメントを受け付けていません

Reasoning in visual navigation of end-to-end trained agents: a dynamical systems approach

要約

具体化されたAIの進歩により、エンドツーエンドの訓練を受けたエージェントが、高レベルの推論とゼロショットまたは言語条件付けの動作を備えた写真リアルな環境でナビゲートすることが可能になりましたが、ベンチマークはまだシミュレーションによって支配されています。
この作業では、急速に移動する本物のロボットのきめの細かい動作に焦点を当て、物理的なロボットを備えた実際の環境で\ numepisodes {}ナビゲーションエピソードを含む大規模な実験的研究を提示します。
特に、エージェントがオープンループ予測のために学んだ現実的なダイナミクスの存在と、センシングとの相互作用を研究します。
エージェントが潜在メモリを使用して、探査中に収集されたシーン構造と情報の要素を保持する方法を分析します。
エージェントの計画能力を調査し、限られた地平線よりも多少正確な計画の記憶の証拠を見つけます。
さらに、事後分析では、エージェントが学んだ値関数が長期計画に関連していることを示します。
まとめて、私たちの実験では、コンピュータービジョンとシーケンシャルな意思決定からのツールを使用することで、ロボット工学と制御の新しい機能につながったことについての新しい絵を描きます。
インタラクティブツールは、europe.naverlabs.com/research/publications/reasoning-in-visual-navigation of-end-end-trained-agentで入手できます。

要約(オリジナル)

Progress in Embodied AI has made it possible for end-to-end-trained agents to navigate in photo-realistic environments with high-level reasoning and zero-shot or language-conditioned behavior, but benchmarks are still dominated by simulation. In this work, we focus on the fine-grained behavior of fast-moving real robots and present a large-scale experimental study involving \numepisodes{} navigation episodes in a real environment with a physical robot, where we analyze the type of reasoning emerging from end-to-end training. In particular, we study the presence of realistic dynamics which the agent learned for open-loop forecasting, and their interplay with sensing. We analyze the way the agent uses latent memory to hold elements of the scene structure and information gathered during exploration. We probe the planning capabilities of the agent, and find in its memory evidence for somewhat precise plans over a limited horizon. Furthermore, we show in a post-hoc analysis that the value function learned by the agent relates to long-term planning. Put together, our experiments paint a new picture on how using tools from computer vision and sequential decision making have led to new capabilities in robotics and control. An interactive tool is available at europe.naverlabs.com/research/publications/reasoning-in-visual-navigation-of-end-to-end-trained-agents.

arxiv情報

著者 Steeven Janny,Hervé Poirier,Leonid Antsfeld,Guillaume Bono,Gianluca Monaci,Boris Chidlovskii,Francesco Giuliari,Alessio Del Bue,Christian Wolf
発行日 2025-04-15 08:24:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, cs.RO | Reasoning in visual navigation of end-to-end trained agents: a dynamical systems approach はコメントを受け付けていません

Acquisition of high-quality images for camera calibration in robotics applications via speech prompts

要約

正確な固有および外因性カメラのキャリブレーションは、視力に依存するロボットアプリケーションにとって重要な前提条件となる可能性があります。
自然な画像を使用したカメラのキャリブレーションの有効化に関する継続的な研究がありますが、実際の多くのシステムは、たとえば。
チェッカーボードパターンまたは4月のタググリッド。
さまざまな視点からのキャリブレーション画像が取得され、機能記述子が検出されると、それらは通常、幾何学的再注入誤差を最小限に抑えるために最適化プロセスで使用されます。
この最適化が収束するためには、入力画像は十分な品質、特にシャープネスである必要があります。
画像キャプチャ中にキャリブレーションボードが静的でなかったときに発生する可能性のあるモーションブラーやローリングシャッターアーティファクトを含めるべきではありません。
この作業では、クリップオンマイクで記録された音声コマンドを介して制御された新しいキャリブレーション画像取得技術を提示します。
リモートコントロールでキャプチャをトリガーするか、ポストプロセスのビデオシーケンスからぼやけたフレームをフィルタリングします。
これを達成するために、正確な単語ごとのタイムスタンプを使用した最先端の音声からテキストへの転写モデルを使用して、トリガーワードを正確な時間的アライメントでキャプチャします。
私たちの実験は、提案された方法が迅速かつ効率的であることによりユーザーエクスペリエンスを改善し、複雑なマルチカメラセットアップをうまく調整できることを示しています。

要約(オリジナル)

Accurate intrinsic and extrinsic camera calibration can be an important prerequisite for robotic applications that rely on vision as input. While there is ongoing research on enabling camera calibration using natural images, many systems in practice still rely on using designated calibration targets with e.g. checkerboard patterns or April tag grids. Once calibration images from different perspectives have been acquired and feature descriptors detected, those are typically used in an optimization process to minimize the geometric reprojection error. For this optimization to converge, input images need to be of sufficient quality and particularly sharpness; they should neither contain motion blur nor rolling-shutter artifacts that can arise when the calibration board was not static during image capture. In this work, we present a novel calibration image acquisition technique controlled via voice commands recorded with a clip-on microphone, that can be more robust and user-friendly than e.g. triggering capture with a remote control, or filtering out blurry frames from a video sequence in postprocessing. To achieve this, we use a state-of-the-art speech-to-text transcription model with accurate per-word timestamping to capture trigger words with precise temporal alignment. Our experiments show that the proposed method improves user experience by being fast and efficient, allowing us to successfully calibrate complex multi-camera setups.

arxiv情報

著者 Timm Linder,Kadir Yilmaz,David B. Adrian,Bastian Leibe
発行日 2025-04-15 09:54:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | Acquisition of high-quality images for camera calibration in robotics applications via speech prompts はコメントを受け付けていません

Neural Control Barrier Functions from Physics Informed Neural Networks

要約

自律システムが日常生活でますます普及するにつれて、彼らの安全が最も重要であることを保証します。
制御バリア関数(CBFS)は、安全性を保証するための効果的なツールとして浮上しています。
ただし、特定のアプリケーションのために手動で設計することは依然として重要な課題です。
深い学習技術の出現により、最近の研究では、ニューラルネットワークを使用して、神経CBFと呼ばれるニューラルネットワークを使用してCBFSの合成が調査されています。
このペーパーでは、安全性のコンテキスト内にズボフの部分微分方程式(PDE)を組み込むことにより、物理学にインスパイアされたニューラルネットワークフレームワークを活用するニューラルCBFの新しいクラスを紹介します。
このアプローチは、高次元システムに適用可能な神経CBFを合成するためのスケーラブルな方法論を提供します。
さらに、CBFをゼロ化する代わりに相互のCBFを利用することにより、提案されたフレームワークにより、柔軟なユーザー定義の安全な領域の仕様が可能になります。
アプローチの有効性を検証するために、3つの異なるシステムに関するケーススタディを提示します。逆骨を備えた環境での倒立振り子、自律的な地上ナビゲーション、空中ナビゲーションです。

要約(オリジナル)

As autonomous systems become increasingly prevalent in daily life, ensuring their safety is paramount. Control Barrier Functions (CBFs) have emerged as an effective tool for guaranteeing safety; however, manually designing them for specific applications remains a significant challenge. With the advent of deep learning techniques, recent research has explored synthesizing CBFs using neural networks-commonly referred to as neural CBFs. This paper introduces a novel class of neural CBFs that leverages a physics-inspired neural network framework by incorporating Zubov’s Partial Differential Equation (PDE) within the context of safety. This approach provides a scalable methodology for synthesizing neural CBFs applicable to high-dimensional systems. Furthermore, by utilizing reciprocal CBFs instead of zeroing CBFs, the proposed framework allows for the specification of flexible, user-defined safe regions. To validate the effectiveness of the approach, we present case studies on three different systems: an inverted pendulum, autonomous ground navigation, and aerial navigation in obstacle-laden environments.

arxiv情報

著者 Shreenabh Agrawal,Manan Tayal,Aditya Singh,Shishir Kolathaya
発行日 2025-04-15 10:13:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO, cs.SY, eess.SY | Neural Control Barrier Functions from Physics Informed Neural Networks はコメントを受け付けていません

A Multi-UAV Formation Obstacle Avoidance Method Combined Improved Simulated Annealing and Adaptive Artificial Potential Field

要約

従来の人工電位フィールド(APF)メソッドは、その力分布に制限を示します。UAVがターゲットとはほど遠い場合の過度の引力は、障害物との衝突を引き起こす可能性がありますが、目標近くの魅力が不十分な魅力はターゲットに到達できないことがよくあります。
さらに、APFは、複雑な環境での局所的な最小値の影響を非常に受けやすく、運動の信頼性を損なう可能性があります。
これらの課題に対処するために、このペーパーでは、新しいハイブリッド障害物回避アルゴリズム解除されたシミュレーションアニーリングに適応する人工電位フィールド(DSA-AAPF)を提示します。これは、改善されたシミュレーションアニーリングメカニズムとAPFモデルを強化します。
提案されたアプローチは、リーダーフォロワー分散形成戦略をAPFフレームワークと統合し、結果の力の定式化が再定義され、UAV軌道を滑らかにします。
環境コンテキストに基づいてUAV速度を動的に調整するために適応的な重力ゲイン関数が導入され、高速で構成されたコントローラーは、ターゲットへの正確で効率的な収束を保証します。
さらに、シミュレートされたアニーリングプロセス内に方向性偏向メカニズムが埋め込まれ、UAVが連続回転運動を通じて半透明な障害によって引き起こされる局所ミニマを逃れることができます。
形成の再構成、複雑な障害物の回避、および閉じ込めの脱出をカバーするシミュレーション結果は、提案されたDSA-AAPFアルゴリズムの実現可能性、堅牢性、および優位性を示しています。

要約(オリジナル)

The traditional Artificial Potential Field (APF) method exhibits limitations in its force distribution: excessive attraction when UAVs are far from the target may cause collisions with obstacles, while insufficient attraction near the goal often results in failure to reach the target. Furthermore, APF is highly susceptible to local minima, compromising motion reliability in complex environments. To address these challenges, this paper presents a novel hybrid obstacle avoidance algorithm-Deflected Simulated Annealing-Adaptive Artificial Potential Field (DSA-AAPF)-which combines an improved simulated annealing mechanism with an enhanced APF model. The proposed approach integrates a Leader-Follower distributed formation strategy with the APF framework, where the resultant force formulation is redefined to smooth UAV trajectories. An adaptive gravitational gain function is introduced to dynamically adjust UAV velocity based on environmental context, and a fast-converging controller ensures accurate and efficient convergence to the target. Moreover, a directional deflection mechanism is embedded within the simulated annealing process, enabling UAVs to escape local minima caused by semi-enclosed obstacles through continuous rotational motion. The simulation results, covering formation reconfiguration, complex obstacle avoidance, and entrapment escape, demonstrate the feasibility, robustness, and superiority of the proposed DSA-AAPF algorithm.

arxiv情報

著者 Bo Ma,Yi Ji,Liyong Fang
発行日 2025-04-15 10:53:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.MA, cs.RO, cs.SY, eess.SY | A Multi-UAV Formation Obstacle Avoidance Method Combined Improved Simulated Annealing and Adaptive Artificial Potential Field はコメントを受け付けていません