Object Navigation with Structure-Semantic Reasoning-Based Multi-level Map and Multimodal Decision-Making LLM

要約

意味的に斬新なターゲットと組み合わせた未知のオープンエンド環境のゼロショットオブジェクトナビゲーション(ZSON)は、高次元の暗黙的なシーン情報の無視と長距離ターゲット検索タスクの無視により、パフォーマンスの大幅な低下に苦しむことがよくあります。
これに対処するために、環境属性MAP(EAM)およびMLLM階層推論モジュール(MHR)を備えたアクティブオブジェクトナビゲーションフレームワークを提案し、成功率と効率を向上させました。
EAMは、スバートとの観察された環境を推論し、オブジェクトルームの相関と領域の隣接の根底にある人間の空間の規則性を利用して、拡散していない環境を予測することによって構築されます。
MHRはEAMに触発され、フロンティア探査の意思決定を実行し、パス効率を改善するために長距離シナリオで回路の軌跡を避けます。
実験結果は、EAMモジュールがmp3Dデータセットで64.5 \%シーンマッピングの精度を達成し、ナビゲーションタスクはそれぞれHM3DおよびMP3Dベンチマークで28.4 \%および26.3 \%のSPLを達成することを示しています。

要約(オリジナル)

The zero-shot object navigation (ZSON) in unknown open-ended environments coupled with semantically novel target often suffers from the significant decline in performance due to the neglect of high-dimensional implicit scene information and the long-range target searching task. To address this, we proposed an active object navigation framework with Environmental Attributes Map (EAM) and MLLM Hierarchical Reasoning module (MHR) to improve its success rate and efficiency. EAM is constructed by reasoning observed environments with SBERT and predicting unobserved ones with Diffusion, utilizing human space regularities that underlie object-room correlations and area adjacencies. MHR is inspired by EAM to perform frontier exploration decision-making, avoiding the circuitous trajectories in long-range scenarios to improve path efficiency. Experimental results demonstrate that the EAM module achieves 64.5\% scene mapping accuracy on MP3D dataset, while the navigation task attains SPLs of 28.4\% and 26.3\% on HM3D and MP3D benchmarks respectively – representing absolute improvements of 21.4\% and 46.0\% over baseline methods.

arxiv情報

著者 Chongshang Yan,Jiaxuan He,Delun Li,Yi Yang,Wenjie Song
発行日 2025-06-06 09:08:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO | コメントする

Mechanically Programming the Cross-Sectional Shape of Soft Growing Robotic Structures for Patient Transfer

要約

空気圧柔らかいエーバー型ロボット構造は、摩擦を滑らずに摩擦をかけずに人間の下で成長させる能力と、柔軟なスリングとしての有用性により、人間の移転タスクを促進する可能性があります。
管状構造は、膨張すると自然に円形の断面を生成しますが、ロボットスリングは、それらとその安静時の間で成長するのに十分薄く、人間をゆりかごするのに十分な幅でなければなりません。
最近の作品は、剛性成分を構造に含めることにより平坦化された断面を達成しましたが、これにより人間への適合性が低下します。
外膜に沿ったポイント間の放射状膨張を制限する柔軟なストリップを使用して、柔らかいエーバーロボット構造の断面を機械的にプログラミングする方法を提示します。
私たちの方法により、従来のスリングの完全な軸の柔軟性を維持しながら、同時に広くて薄いプロファイルが可能になります。
幾何学的設計仕様を製造パラメーターに関連付けるモデルを開発および検証し、実験的に成長率に対する影響を特徴付けます。
最後に、柔らかく成長しているロボットスリングシステムをプロトタイプし、ベッドから椅子への患者移転で単一の介護者を支援するための使用を実証します。

要約(オリジナル)

Pneumatic soft everting robotic structures have the potential to facilitate human transfer tasks due to their ability to grow underneath humans without sliding friction and their utility as a flexible sling when deflated. Tubular structures naturally yield circular cross-sections when inflated, whereas a robotic sling must be both thin enough to grow between them and their resting surface and wide enough to cradle the human. Recent works have achieved flattened cross-sections by including rigid components into the structure, but this reduces conformability to the human. We present a method of mechanically programming the cross-section of soft everting robotic structures using flexible strips that constrain radial expansion between points along the outer membrane. Our method enables simultaneously wide and thin profiles while maintaining the full multi-axis flexibility of traditional slings. We develop and validate a model relating the geometric design specifications to the fabrication parameters, and experimentally characterize their effects on growth rate. Finally, we prototype a soft growing robotic sling system and demonstrate its use for assisting a single caregiver in bed-to-chair patient transfer.

arxiv情報

著者 O. Godson Osele,Kentaro Barhydt,Teagan Sullivan,H. Harry Asada,Allison M. Okamura
発行日 2025-06-06 09:43:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

SafeAuto: Knowledge-Enhanced Safe Autonomous Driving with Multimodal Foundation Models

要約

従来の自律駆動システムは、高レベルの推論を低レベルの制御と結びつけるのに苦労しており、最適ではない場合があり、時には安全でない行動につながります。
視覚データとテキストデータの両方を処理するマルチモーダルラージランゲージモデル(MLLMS)の最近の進歩は、認識と推論を統一する機会を提供します。
ただし、自律運転のために正確な安全知識をMLLMに埋め込むことは効果的に依然として重要な課題です。
これに対処するために、非構造化と構造化された知識の両方を組み込むことにより、MLLMベースの自律運転を強化するフレームワークであるSafeautoを提案します。
最初に、値がテキストとして表されている場合、低レベルの制御信号予測を改善するために、位置依存性交差点(PDCE)損失を導入します。
第二に、安全知識を明示的に統合するために、トラフィックルールを1次ロジックに変換する推論コンポーネントを開発し(例えば、「赤色光$ \は$ stop」)、それらを確率的グラフィカルモデル(例:Markov Logic Network)に埋め込み、認識された環境属性を使用して予測されるアクションを確認します。
さらに、過去の運転経験から学ぶために、マルチモーダル検索の高度発電(RAG)モデルはビデオ、制御信号、環境属性を活用しています。
PDCE、MLN、およびマルチモーダルRAGを統合すると、SAFEAUTOは複数のデータセットで既存のベースラインを上回り、より正確で信頼性が高く、より安全な自律運転を可能にします。
このコードは、https://github.com/ai-secure/safeautoで入手できます。

要約(オリジナル)

Traditional autonomous driving systems often struggle to connect high-level reasoning with low-level control, leading to suboptimal and sometimes unsafe behaviors. Recent advances in multimodal large language models (MLLMs), which process both visual and textual data, offer an opportunity to unify perception and reasoning. However, effectively embedding precise safety knowledge into MLLMs for autonomous driving remains a significant challenge. To address this, we propose SafeAuto, a framework that enhances MLLM-based autonomous driving by incorporating both unstructured and structured knowledge. First, we introduce a Position-Dependent Cross-Entropy (PDCE) loss to improve low-level control signal predictions when values are represented as text. Second, to explicitly integrate safety knowledge, we develop a reasoning component that translates traffic rules into first-order logic (e.g., ‘red light $\implies$ stop’) and embeds them into a probabilistic graphical model (e.g., Markov Logic Network) to verify predicted actions using recognized environmental attributes. Additionally, our Multimodal Retrieval-Augmented Generation (RAG) model leverages video, control signals, and environmental attributes to learn from past driving experiences. Integrating PDCE, MLN, and Multimodal RAG, SafeAuto outperforms existing baselines across multiple datasets, enabling more accurate, reliable, and safer autonomous driving. The code is available at https://github.com/AI-secure/SafeAuto.

arxiv情報

著者 Jiawei Zhang,Xuan Yang,Taiqi Wang,Yu Yao,Aleksandr Petiushko,Bo Li
発行日 2025-06-06 10:09:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO, cs.SY, eess.SY | コメントする

Nocturnal eye inspired liquid to gas phase change soft actuator with Laser-Induced-Graphene: enhanced environmental light harvesting and photothermal conversion

要約

ロボットシステムのモビリティは、電源と配線によって制約されています。
空気圧アクチュエーターは供給につながれたままですが、光エネルギーを利用した新しいアクチュエーターを開発しました。
夜行性の動物の目に触発されて、私たちはシリコン層の内面にレーザー誘導グラフェン(LIG)を組み込んだ二重層のソフトアクチュエータを設計しました。
この設計により、シリコーンの透明性と柔軟性が維持され、光熱変換の強化により、従来のアクチュエーターと比較して54%の応答時間が54%速くなります。

要約(オリジナル)

Robotic systems’ mobility is constrained by power sources and wiring. While pneumatic actuators remain tethered to air supplies, we developed a new actuator utilizing light energy. Inspired by nocturnal animals’ eyes, we designed a bilayer soft actuator incorporating Laser-Induced Graphene (LIG) on the inner surface of a silicone layer. This design maintains silicone’s transparency and flexibility while achieving 54% faster response time compared to conventional actuators through enhanced photothermal conversion.

arxiv情報

著者 Maina Sogabe,Youhyun Kim,Hiroki Miyazako,Kenji Kawashima
発行日 2025-06-06 10:18:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

HJRNO: Hamilton-Jacobi Reachability with Neural Operators

要約

不確実性の下で自律システムの安全性を確保することは、重大な課題です。
Hamilton-Jacobi Reachability(HJR)分析は、最悪の場合の安全性を保証するために広く使用されている方法です。
この作業では、後方に到達可能なチューブ(BRT)を効率的かつ正確に解決するための神経オペレーターベースのフレームワークであるHJRNOを提案します。
神経演算子を活用することにより、HJRNOは値関数間のマッピングを学習し、さまざまな障害物形状とシステム構成にわたって強力な一般化との高速推論を可能にします。
HJRNOは、ランダムな障害シナリオで低いエラーを達成し、さまざまなシステムダイナミクス全体で効果的に一般化することを実証します。
これらの結果は、HJRNOが自律システムにおけるスケーラブルでリアルタイムの安全分析のための有望な基礎モデルアプローチを提供することを示唆しています。

要約(オリジナル)

Ensuring the safety of autonomous systems under uncertainty is a critical challenge. Hamilton-Jacobi reachability (HJR) analysis is a widely used method for guaranteeing safety under worst-case disturbances. In this work, we propose HJRNO, a neural operator-based framework for solving backward reachable tubes (BRTs) efficiently and accurately. By leveraging neural operators, HJRNO learns a mapping between value functions, enabling fast inference with strong generalization across different obstacle shapes and system configurations. We demonstrate that HJRNO achieves low error on random obstacle scenarios and generalizes effectively across varying system dynamics. These results suggest that HJRNO offers a promising foundation model approach for scalable, real-time safety analysis in autonomous systems.

arxiv情報

著者 Yankai Li,Mo Chen
発行日 2025-06-06 10:32:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

Gradual Transition from Bellman Optimality Operator to Bellman Operator in Online Reinforcement Learning

要約

継続的なアクションスペースの場合、俳優と批判的な方法は、オンライン強化学習(RL)で広く使用されています。
ただし、通常、ベルマン最適性演算子を使用して最適値関数をモデル化する離散アクションのRLアルゴリズムとは異なり、継続アクションのRLアルゴリズムは通常、Bellmanオペレーターを使用した現在のポリシーのQ値をモデル化します。
継続的なアクションのためのこれらのアルゴリズムは、改善のためのポリシー更新のみに依存しており、多くの場合、サンプル効率が低くなります。
この研究では、Bellman Optimalityオペレーターをアクタークリティックフレームワークに組み込むことの有効性を検証します。
単純な環境での実験では、最適値のモデリングが学習を加速し、過大評価バイアスにつながることが示されています。
これに対処するために、Bellman OptimalityオペレーターからBellmanオペレーターに徐々に移行するアニーリングアプローチを提案し、それにより学習を促進しながらバイアスを緩和します。
TD3とSACと組み合わされたこの方法は、さまざまな移動および操作タスクにわたって既存のアプローチを大幅に上回り、最適性に関連するハイパーパラメーターのパフォーマンスと堅牢性の向上を示しています。

要約(オリジナル)

For continuous action spaces, actor-critic methods are widely used in online reinforcement learning (RL). However, unlike RL algorithms for discrete actions, which generally model the optimal value function using the Bellman optimality operator, RL algorithms for continuous actions typically model Q-values for the current policy using the Bellman operator. These algorithms for continuous actions rely exclusively on policy updates for improvement, which often results in low sample efficiency. This study examines the effectiveness of incorporating the Bellman optimality operator into actor-critic frameworks. Experiments in a simple environment show that modeling optimal values accelerates learning but leads to overestimation bias. To address this, we propose an annealing approach that gradually transitions from the Bellman optimality operator to the Bellman operator, thereby accelerating learning while mitigating bias. Our method, combined with TD3 and SAC, significantly outperforms existing approaches across various locomotion and manipulation tasks, demonstrating improved performance and robustness to hyperparameters related to optimality.

arxiv情報

著者 Motoki Omura,Kazuki Ota,Takayuki Osa,Yusuke Mukuta,Tatsuya Harada
発行日 2025-06-06 10:46:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO | コメントする

Dynamic Mixture of Progressive Parameter-Efficient Expert Library for Lifelong Robot Learning

要約

ジェネラリストのエージェントは、生涯を通じて継続的に学習し、適応し、壊滅的な忘却を最小限に抑えながら、効率的な前進移転を達成しなければなりません。
支配的な前の前の前から財政パラダイム内での以前の研究では、シングルタスク適応のためのパラメーター効率の高い微調整を調査し、少数のパラメーターを使用して凍結した前提型モデルを効果的に操縦しました。
ただし、生涯学習のコンテキストでは、これらの方法は、テスト時間タスク識別子の非現実的な仮定に依存し、孤立したアダプター間の知識共有を制限します。
これらの制限に対処するために、生涯ロボット学習のためのプログレッシブパラメーター効率の高いエキスパートライブラリ(DMPEL)の動的な混合を提案します。
DMPELは、低ランクの専門家ライブラリを徐々に学習し、軽量のルーターを採用して専門家をエンドツーエンドのポリシーに動的に結合し、生涯にわたる適応中の柔軟な行動を促進します。
さらに、微調整されたパラメーターのモジュラー構造を活用することにより、係数リプレイを導入して、以前に遭遇したタスクのために凍結した専門家を正確に取得し、それにより壊滅的な忘却を軽減するためにルーターを導きます。
この方法は、ポリシー全体にデモリプレイを適用するよりも、ストレージが大幅にストレージであり、計算効率が良くなります。
生涯にわたる操作ベンチマークリベロに関する広範な実験は、私たちのフレームワークが、最小限のトレーニング可能なパラメーターとストレージを利用しながら、継続的な適応全体で成功率の最先端の生涯学習方法よりも優れていることを示しています。

要約(オリジナル)

A generalist agent must continuously learn and adapt throughout its lifetime, achieving efficient forward transfer while minimizing catastrophic forgetting. Previous work within the dominant pretrain-then-finetune paradigm has explored parameter-efficient fine-tuning for single-task adaptation, effectively steering a frozen pretrained model with a small number of parameters. However, in the context of lifelong learning, these methods rely on the impractical assumption of a test-time task identifier and restrict knowledge sharing among isolated adapters. To address these limitations, we propose Dynamic Mixture of Progressive Parameter-Efficient Expert Library (DMPEL) for lifelong robot learning. DMPEL progressively learn a low-rank expert library and employs a lightweight router to dynamically combine experts into an end-to-end policy, facilitating flexible behavior during lifelong adaptation. Moreover, by leveraging the modular structure of the fine-tuned parameters, we introduce coefficient replay to guide the router in accurately retrieving frozen experts for previously encountered tasks, thereby mitigating catastrophic forgetting. This method is significantly more storage- and computationally-efficient than applying demonstration replay to the entire policy. Extensive experiments on the lifelong manipulation benchmark LIBERO demonstrate that our framework outperforms state-of-the-art lifelong learning methods in success rates across continual adaptation, while utilizing minimal trainable parameters and storage.

arxiv情報

著者 Yuheng Lei,Sitong Mao,Shunbo Zhou,Hongyuan Zhang,Xuelong Li,Ping Luo
発行日 2025-06-06 11:13:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | コメントする

Diffusion Policies for Out-of-Distribution Generalization in Offline Reinforcement Learning

要約

オフライン強化学習(RL)メソッドは、以前の経験を活用して、データ収集に使用される行動ポリシーよりも優れたポリシーを学習します。
ただし、トレーニング中のオンラインインタラクションがないため、分布シフトの処理課題に直面しています。
この目的のために、拡散ポリシー(SRDP)の状態再構成という名前の新しい方法を提案します。これは、分散除外(OOD)一般化の問題に対処するために、最近のクラスの拡散ポリシーに状態再構成機能学習を組み込んでいます。
私たちの方法は、OOD状態によって引き起こされる分布シフトを軽減するために、一般化可能な状態表現の学習を促進します。
SRDPのOOD一般化とより速い収束を説明するために、新しい2Dマルチモーダルコンテキストバンディット環境を設計し、6-Dof RealWld UR10ロボットでそれを実現し、シミュレーションでそれを実現し、そのパフォーマンスを以前のアルゴリズムと比較します。
特に、アブレーション研究を通じて提案された州再建の重要性を示しています。
さらに、標準の連続制御ベンチマーク(D4RL)でのモデルのパフォーマンスを評価します。つまり、8ドフANTのナビゲーションとハーフチーター、ホッパー、およびWalker2Dの前方移動を評価し、最先端の結果を達成します。
最後に、目標をカプセル化する領域を含むオフラインRLデータセットから状態空間のさまざまな領域が削除される、まばらな連続制御ナビゲーションタスクで、競合するベースラインでこの方法が167%の改善を達成できることを実証します。

要約(オリジナル)

Offline Reinforcement Learning (RL) methods leverage previous experiences to learn better policies than the behavior policy used for data collection. However, they face challenges handling distribution shifts due to the lack of online interaction during training. To this end, we propose a novel method named State Reconstruction for Diffusion Policies (SRDP) that incorporates state reconstruction feature learning in the recent class of diffusion policies to address the problem of out-of-distribution (OOD) generalization. Our method promotes learning of generalizable state representation to alleviate the distribution shift caused by OOD states. To illustrate the OOD generalization and faster convergence of SRDP, we design a novel 2D Multimodal Contextual Bandit environment and realize it on a 6-DoF real-world UR10 robot, as well as in simulation, and compare its performance with prior algorithms. In particular, we show the importance of the proposed state reconstruction via ablation studies. In addition, we assess the performance of our model on standard continuous control benchmarks (D4RL), namely the navigation of an 8-DoF ant and forward locomotion of half-cheetah, hopper, and walker2d, achieving state-of-the-art results. Finally, we demonstrate that our method can achieve 167% improvement over the competing baseline on a sparse continuous control navigation task where various regions of the state space are removed from the offline RL dataset, including the region encapsulating the goal.

arxiv情報

著者 Suzan Ece Ada,Erhan Oztop,Emre Ugur
発行日 2025-06-06 11:23:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.NE, cs.RO | コメントする

Improving Long-Range Navigation with Spatially-Enhanced Recurrent Memory via End-to-End Reinforcement Learning

要約

ロボットナビゲーションの最近の進歩、特に強化学習(RL)などのエンドツーエンドの学習アプローチにより、驚くべき効率と有効性が示されています。
しかし、ナビゲーションの成功は、明示的であろうと暗黙的であろうと、マッピングと計画の2つの重要な機能に依然として依存しています。
古典的なアプローチでは、明示的なマッピングパイプラインを使用して、プランナーのコヒーレントマップフレームに自我中心の観測を登録します。
対照的に、エンドツーエンドの学習は、多くの場合、電流と過去の観測を計画のために潜在的な空間に融合させる再発性ニューラルネットワーク(RNN)を通じて、これを暗黙的に達成します。
LSTMやGRUなどのアーキテクチャは時間的依存関係をキャプチャしますが、私たちの調査結果は、効果的な空間的暗記を実行できないという重要な制限を明らかにしています。
このスキルは、さまざまな視点からシーケンシャルな観察を変換して統合して、下流の計画をサポートする空間表現を構築するために不可欠です。
これに対処するために、空間的に強化された再発ユニット(SRU)を提案します。これは、既存のRNNのシンプルで効果的な変更であり、空間的な記憶能力を強化するように設計されています。
SRUを使用して注意ベースのアーキテクチャを紹介し、単一の前向きステレオカメラを使用して長距離ナビゲーションを可能にします。
RLを介した堅牢なエンドツーエンドの再発トレーニングを確保するために、正規化技術が採用されています。
実験結果は、私たちのアプローチが既存のRNNと比較して長距離ナビゲーションが23.5%改善することを示しています。
さらに、SRUメモリを使用すると、明示的なマッピングとメモリモジュールでRLベースラインを上回り、長距離マッピングと記憶を必要とする多様な環境で29.6%の改善を達成します。
最後に、合成深度データで大規模な事前削除を活用して、多様で複雑な現実世界の環境へのゼロショット転送を可能にすることにより、SIMからリアルのギャップに対処します。

要約(オリジナル)

Recent advancements in robot navigation, especially with end-to-end learning approaches like reinforcement learning (RL), have shown remarkable efficiency and effectiveness. Yet, successful navigation still relies on two key capabilities: mapping and planning, whether explicit or implicit. Classical approaches use explicit mapping pipelines to register ego-centric observations into a coherent map frame for the planner. In contrast, end-to-end learning achieves this implicitly, often through recurrent neural networks (RNNs) that fuse current and past observations into a latent space for planning. While architectures such as LSTM and GRU capture temporal dependencies, our findings reveal a key limitation: their inability to perform effective spatial memorization. This skill is essential for transforming and integrating sequential observations from varying perspectives to build spatial representations that support downstream planning. To address this, we propose Spatially-Enhanced Recurrent Units (SRUs), a simple yet effective modification to existing RNNs, designed to enhance spatial memorization capabilities. We introduce an attention-based architecture with SRUs, enabling long-range navigation using a single forward-facing stereo camera. Regularization techniques are employed to ensure robust end-to-end recurrent training via RL. Experimental results show our approach improves long-range navigation by 23.5% compared to existing RNNs. Furthermore, with SRU memory, our method outperforms the RL baseline with explicit mapping and memory modules, achieving a 29.6% improvement in diverse environments requiring long-horizon mapping and memorization. Finally, we address the sim-to-real gap by leveraging large-scale pretraining on synthetic depth data, enabling zero-shot transfer to diverse and complex real-world environments.

arxiv情報

著者 Fan Yang,Per Frivik,David Hoeller,Chen Wang,Cesar Cadena,Marco Hutter
発行日 2025-06-06 11:35:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

Enhanced Trust Region Sequential Convex Optimization for Multi-Drone Thermal Screening Trajectory Planning in Urban Environments

要約

特に感染症の発生中に、公衆衛生のリスクを管理するためには、都市部の人口における異常な体温の迅速な検出が不可欠です。
マルチドローン熱スクリーニングシステムは、高速、大規模、および非侵入的な人類の監視に有望なソリューションを提供します。
ただし、複雑な都市環境における複数のドローンの軌跡計画は、衝突回避、カバレッジ効率、制約された飛行環境など、重大な課題をもたらします。
この研究では、熱スクリーニングタスクを実行する複数のドローンの最適な軌跡計画のための、強化された信頼領域列凸最適化(TR-SCO)アルゴリズムを提案します。
改良されたアルゴリズムは、信頼地域のフレームワーク内で洗練された凸最適化定式化を統合し、軌跡の滑らかさ、障害物の回避、高度の制約、最大スクリーニングカバレッジのバランスを効果的にバランスさせます。
シミュレーション結果は、このアプローチが、従来の凸最適化方法と比較して、軌道の最適性と計算効率を大幅に改善することを示しています。
この研究は、都市部でのリアルタイムサーマルスクリーニングのために効率的なマルチドローンシステムを展開するための重要な洞察と実用的な貢献を提供します。
私たちの研究に興味がある読者のために、https://github.com/cherry0302/enhanced-tr-scoでソースコードをリリースします。

要約(オリジナル)

The rapid detection of abnormal body temperatures in urban populations is essential for managing public health risks, especially during outbreaks of infectious diseases. Multi-drone thermal screening systems offer promising solutions for fast, large-scale, and non-intrusive human temperature monitoring. However, trajectory planning for multiple drones in complex urban environments poses significant challenges, including collision avoidance, coverage efficiency, and constrained flight environments. In this study, we propose an enhanced trust region sequential convex optimization (TR-SCO) algorithm for optimal trajectory planning of multiple drones performing thermal screening tasks. Our improved algorithm integrates a refined convex optimization formulation within a trust region framework, effectively balancing trajectory smoothness, obstacle avoidance, altitude constraints, and maximum screening coverage. Simulation results demonstrate that our approach significantly improves trajectory optimality and computational efficiency compared to conventional convex optimization methods. This research provides critical insights and practical contributions toward deploying efficient multi-drone systems for real-time thermal screening in urban areas. For reader who are interested in our research, we release our source code at https://github.com/Cherry0302/Enhanced-TR-SCO.

arxiv情報

著者 Kaiyuan Chen,Zhengjie Hu,Shaolin Zhang,Yuanqing Xia,Wannian Liang,Shuo Wang
発行日 2025-06-06 11:57:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY, math.OC | コメントする