Rolling Horizon Coverage Control with Collaborative Autonomous Agents

要約

この作業では、分散した自律エージェントの空中チームが、3Dオブジェクトの表面積の特定のポイントをカバーすることを目的とした、ローリング有限の地平線上で非微妙なカバレッジプランを共同で生成できるようにするカバレッジコントローラーを提案します。
分散モデルの予測制御問題として定式化された共同カバレッジの問題は、作業冗長性を減らすことを目的としたエージェント間の制約を考慮しながら、エージェントのモーションとカメラ制御の入力を最適化します。
提案されたカバレッジコントローラーは、ライトパス伝播技術に基づいて制約を統合し、エージェントの将来の予想される状態に関して見えるオブジェクトの表面の部分を予測します。
また、この作業は、バイナリ制約として混合整数最適化フレームワークに埋め込まれた論理式に複雑で非線形視認性評価の制約をどのように変換できるかを示しています。
提案されたアプローチは、無人航空機(UAV)を使用して建物を検査するためのシミュレーションと実用的なアプリケーションを通じて実証されています。

要約(オリジナル)

This work proposes a coverage controller that enables an aerial team of distributed autonomous agents to collaboratively generate non-myopic coverage plans over a rolling finite horizon, aiming to cover specific points on the surface area of a 3D object of interest. The collaborative coverage problem, formulated, as a distributed model predictive control problem, optimizes the agents’ motion and camera control inputs, while considering inter-agent constraints aiming at reducing work redundancy. The proposed coverage controller integrates constraints based on light-path propagation techniques to predict the parts of the object’s surface that are visible with regard to the agents’ future anticipated states. This work also demonstrates how complex, non-linear visibility assessment constraints can be converted into logical expressions that are embedded as binary constraints into a mixed-integer optimization framework. The proposed approach has been demonstrated through simulations and practical applications for inspecting buildings with unmanned aerial vehicles (UAVs).

arxiv情報

著者 Savvas Papaioannou,Panayiotis Kolios,Theocharis Theocharides,Christos G. Panayiotou,Marios M. Polycarpou
発行日 2025-04-08 10:17:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Rolling Horizon Coverage Control with Collaborative Autonomous Agents はコメントを受け付けていません

Jointly-optimized Trajectory Generation and Camera Control for 3D Coverage Planning

要約

この作業では、共同で最適化された軌道生成とカメラ制御アプローチを提案し、3D環境で動作する無人航空機(UAV)などの自律剤を可能にし、対象の3Dオブジェクトの表面積を最大限にカバーするカバレッジ軌道を計画および実行することができます。
具体的には、UAVの運動学的およびカメラ制御入力は、オブジェクトの完全な3Dカバレッジを実現するために、ローリングプランニングホライズンで共同で最適化されています。
提案されたコントローラーは、光線の伝播をシミュレートするために計画プロセスに光線を取り入れ、それによりUAVのカメラを介してオブジェクトの可視部分を決定します。
この統合により、正確なルックアライドカバレッジの軌跡を生成できます。
カバレッジ計画の問題は、ローリングの有限ホリゾン最適制御問題として策定され、混合整数プログラミング技術を使用して解決されます。
広範な現実世界と合成実験は、提案されたアプローチのパフォーマンスを検証します。

要約(オリジナル)

This work proposes a jointly optimized trajectory generation and camera control approach, enabling an autonomous agent, such as an unmanned aerial vehicle (UAV) operating in 3D environments, to plan and execute coverage trajectories that maximally cover the surface area of a 3D object of interest. Specifically, the UAV’s kinematic and camera control inputs are jointly optimized over a rolling planning horizon to achieve complete 3D coverage of the object. The proposed controller incorporates ray-tracing into the planning process to simulate the propagation of light rays, thereby determining the visible parts of the object through the UAV’s camera. This integration enables the generation of precise look-ahead coverage trajectories. The coverage planning problem is formulated as a rolling finite-horizon optimal control problem and solved using mixed-integer programming techniques. Extensive real-world and synthetic experiments validate the performance of the proposed approach.

arxiv情報

著者 Savvas Papaioannou,Panayiotis Kolios,Theocharis Theocharides,Christos G. Panayiotou,Marios M. Polycarpou
発行日 2025-04-08 10:23:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Jointly-optimized Trajectory Generation and Camera Control for 3D Coverage Planning はコメントを受け付けていません

Comparing Apples to Oranges: LLM-powered Multimodal Intention Prediction in an Object Categorization Task

要約

人間の意図ベースのシステムにより、ロボットはユーザーアクションを認識して解釈して人間と対話し、積極的に行動に適応することができます。
したがって、意図の予測は、人間が設計した環境で社会ロボットとの自然な相互作用を作成する上で極めて重要です。
この論文では、物理ロボットとの共同オブジェクト分類タスクで人間の意図を推測するために、大規模な言語モデル(LLM)を使用して調べます。
階層アーキテクチャのユーザーの意図を予測するための環境状態とユーザーの口頭キューを備えた、ハンドジェスチャー、ボディポーズ、表情など、ユーザーの非言語的手がかりを統合する新しいマルチモーダルアプローチを提案します。
5つのLLMの評価は、言語および非言語的ユーザーの手がかりについて推論する可能性を示しており、ソーシャルロボットとのタスクについて協力しながら、意図の予測をサポートするために、コンテキストの理解と現実世界の知識を活用しています。
ビデオ:https://youtu.be/tbjhfauzohi

要約(オリジナル)

Human intention-based systems enable robots to perceive and interpret user actions to interact with humans and adapt to their behavior proactively. Therefore, intention prediction is pivotal in creating a natural interaction with social robots in human-designed environments. In this paper, we examine using Large Language Models (LLMs) to infer human intention in a collaborative object categorization task with a physical robot. We propose a novel multimodal approach that integrates user non-verbal cues, like hand gestures, body poses, and facial expressions, with environment states and user verbal cues to predict user intentions in a hierarchical architecture. Our evaluation of five LLMs shows the potential for reasoning about verbal and non-verbal user cues, leveraging their context-understanding and real-world knowledge to support intention prediction while collaborating on a task with a social robot. Video: https://youtu.be/tBJHfAuzohI

arxiv情報

著者 Hassan Ali,Philipp Allgeuer,Stefan Wermter
発行日 2025-04-08 10:48:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC, cs.RO, I.2.7 | Comparing Apples to Oranges: LLM-powered Multimodal Intention Prediction in an Object Categorization Task はコメントを受け付けていません

Deep RL-based Autonomous Navigation of Micro Aerial Vehicles (MAVs) in a complex GPS-denied Indoor Environment

要約

屋内環境における無人航空機(UAV)の自律性は、倉庫、工場、屋内施設などの囲まれたスペースに信頼できるGPSシグナルがないため、大きな課題をもたらします。
マイクロエアリアルビークル(MAV)は、これらの複雑でGPSが除去したシナリオをナビゲートするために好まれます。これは、敏ility性、低電力消費、および限られた計算機能のためです。
この論文では、計算効率を改善することでリアルタイムナビゲーションを強化するために、強化学習に基づく深部近位政策最適化(D-PPO)アルゴリズムを提案します。
エンドツーエンドのネットワークは、Unreal Engineを使用して作成された3Dリアルなメタ環境でトレーニングされています。
これらの訓練されたメタ重量により、MAVシステムは、実際の屋内環境で広範な実験試験を受けました。
結果は、提案された方法が、パフォーマンスを大幅に分解することなく、トレーニング期間中に計算遅延を91 \%減らすことを示しています。
アルゴリズムはDJI Telloドローンでテストされ、同様の結果が得られました。

要約(オリジナル)

The Autonomy of Unmanned Aerial Vehicles (UAVs) in indoor environments poses significant challenges due to the lack of reliable GPS signals in enclosed spaces such as warehouses, factories, and indoor facilities. Micro Aerial Vehicles (MAVs) are preferred for navigating in these complex, GPS-denied scenarios because of their agility, low power consumption, and limited computational capabilities. In this paper, we propose a Reinforcement Learning based Deep-Proximal Policy Optimization (D-PPO) algorithm to enhance realtime navigation through improving the computation efficiency. The end-to-end network is trained in 3D realistic meta-environments created using the Unreal Engine. With these trained meta-weights, the MAV system underwent extensive experimental trials in real-world indoor environments. The results indicate that the proposed method reduces computational latency by 91\% during training period without significant degradation in performance. The algorithm was tested on a DJI Tello drone, yielding similar results.

arxiv情報

著者 Amit Kumar Singh,Prasanth Kumar Duba,P. Rajalakshmi
発行日 2025-04-08 11:14:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | Deep RL-based Autonomous Navigation of Micro Aerial Vehicles (MAVs) in a complex GPS-denied Indoor Environment はコメントを受け付けていません

Accelerated Reeds-Shepp and Under-Specified Reeds-Shepp Algorithms for Mobile Robot Path Planning

要約

この研究では、最適なReeds-Sheppパス計算を加速するためのシンプルで直感的な方法を提示します。
私たちのアプローチは、幾何学的な推論を使用して最適なパスの動作を分析し、状態空間の新しいパーティション化と、最小限の実行可能なパスセットのさらなる削減をもたらします。
私たちの方法を評価するためのベンチマークとして機能するために、現代のオープンソースの実装を欠いている文献から古典的な方法論を再検討し、再現します。
さらに、最終オリエンテーションが不明である場合、不足しているReeds-Shepp計画の問題に対処します。
ソリューションを検証するために徹底的な実験を行います。
Open Motion Planning Libraryでの元のReeds-Sheppソリューションの最新のC ++実装と比較して、この方法は15倍のスピードアップを示し、クラシックな方法は5.79倍のスピードアップを実現します。
どちらのアプローチも、元のソリューションと比較して、パス長の機械精度の違いを示します。
オープンソースコードとして、加速および指定されていないReeds-Shepp問題の両方に対して提案されたC ++実装をリリースします。

要約(オリジナル)

In this study, we present a simple and intuitive method for accelerating optimal Reeds-Shepp path computation. Our approach uses geometrical reasoning to analyze the behavior of optimal paths, resulting in a new partitioning of the state space and a further reduction in the minimal set of viable paths. We revisit and reimplement classic methodologies from the literature, which lack contemporary open-source implementations, to serve as benchmarks for evaluating our method. Additionally, we address the under-specified Reeds-Shepp planning problem where the final orientation is unspecified. We perform exhaustive experiments to validate our solutions. Compared to the modern C++ implementation of the original Reeds-Shepp solution in the Open Motion Planning Library, our method demonstrates a 15x speedup, while classic methods achieve a 5.79x speedup. Both approaches exhibit machine-precision differences in path lengths compared to the original solution. We release our proposed C++ implementations for both the accelerated and under-specified Reeds-Shepp problems as open-source code.

arxiv情報

著者 Ibrahim Ibrahim,Wilm Decré,Jan Swevers
発行日 2025-04-08 11:22:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CG, cs.RO | Accelerated Reeds-Shepp and Under-Specified Reeds-Shepp Algorithms for Mobile Robot Path Planning はコメントを受け付けていません

Collision-free landing of multiple UAVs on moving ground vehicles using time-varying control barrier functions

要約

この記事では、コントロールバリア関数(CBF)を使用して、無人の地上車両(UGV)を移動するために着陸するための複数の無人航空機(UAV)を制御するための集中型アプローチを提示します。
提案された制御フレームワークは、2種類のCBFを使用して、UAVの動きに安全上の制約を課しています。
CBFS(LCBF)の最初のクラスは、UGVに安全かつ正確にUAVを着陸させるように設計された、着陸プラットフォームの中心にある3次元指数関数的に減衰する関数です。
2番目のセットは球状のCBF(SCBF)で、UAVのすべてのペア間で定義されているため、それらの間の衝突を回避します。
LCBFは時変であり、UGVの動きに適応します。
提案されているCBFアプローチでは、着陸プラットフォームに到達するように設計されたUAVの公称追跡コントローラーからの制御入力がフィルター処理され、安全性を保証する最小限の制御コントロール入力(CBFで定義されています)が選択されます。
すべてのUAVの制御入力は、複数のCBF制約を確立する際に共有されるため、コントロール入力が安全なセットを前方に変えることに競合することなく共有されることを証明します。
制御フレームワークのパフォーマンスは、3つの移動ターゲットに着陸する3つのUAVを含むシミュレートされたシナリオを通じて検証されます。

要約(オリジナル)

In this article, we present a centralized approach for the control of multiple unmanned aerial vehicles (UAVs) for landing on moving unmanned ground vehicles (UGVs) using control barrier functions (CBFs). The proposed control framework employs two kinds of CBFs to impose safety constraints on the UAVs’ motion. The first class of CBFs (LCBF) is a three-dimensional exponentially decaying function centered above the landing platform, designed to safely and precisely land UAVs on the UGVs. The second set is a spherical CBF (SCBF), defined between every pair of UAVs, which avoids collisions between them. The LCBF is time-varying and adapts to the motions of the UGVs. In the proposed CBF approach, the control input from the UAV’s nominal tracking controller designed to reach the landing platform is filtered to choose a minimally-deviating control input that ensures safety (as defined by the CBFs). As the control inputs of every UAV are shared in establishing multiple CBF constraints, we prove that the control inputs are shared without conflict in rendering the safe sets forward invariant. The performance of the control framework is validated through a simulated scenario involving three UAVs landing on three moving targets.

arxiv情報

著者 Viswa Narayanan Sankaranarayanan,Akshit Saradagi,Sumeet Satpute,George Nikolakopoulos
発行日 2025-04-08 11:54:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Collision-free landing of multiple UAVs on moving ground vehicles using time-varying control barrier functions はコメントを受け付けていません

A Corrector-aided Look-ahead Distance-based Guidance for Reference Path Following with an Efficient Midcourse Guidance Strategy

要約

自律車両(UXV)のほとんどのアプリケーションでは、効率的なパスフォローが重要です。
文献で提示されているさまざまなガイダンス戦略の中で、見た目の距離($ l_1 $)ベースのガイダンス方法は、実装の容易さと、より単純な参照パスに従って低クロストラックエラーを維持し、境界のある横方向の加速コマンドを生成する能力により、かなりの注目を集めています。
ただし、UXVが基準パスから遠く離れている場合、$ l_1 $の一定の値は問題になり、また、曲率半径の高い変動を持つ複雑な参照パスに続いて、より高いクロストラックエラーを生成します。
これらの課題に対処するために、見た目の距離の概念は、2フェーズガイダンス戦略を開発するための新しい方法で活用されています。
当初、UXVが参照パスから遠く離れている場合、最小限の横方向の加速コマンドを維持するために、UXVを参照パスに導くために最適化された$ L_1 $選択戦略が開発されます。
車両が基準パスの近くに達すると、補正点の新しい概念が一定の$ L_1 $ベースのガイダンススキームに組み込まれ、その後、クロストラック誤差のルート平均平方を効果的に削減する横方向の加速コマンドを生成します。
シミュレーション結果は、この提案された補正点と見た目のポイントペアベースのガイダンス戦略と開発されたミッドコースガイダンススキームとともに、クロストラックエラーや横方向の加速要件などの有効性の実現可能性と測定の両方の観点から、従来の定数$ L_1 $ガイダンススキームよりも優れていることを示しています。

要約(オリジナル)

Efficient path-following is crucial in most of the applications of autonomous vehicles (UxV). Among various guidance strategies presented in literature, look-ahead distance ($L_1$)-based guidance method has received significant attention due to its ease in implementation and ability to maintain a low cross-track error while following simpler reference paths and generate bounded lateral acceleration commands. However, the constant value of $L_1$ becomes problematic when the UxV is far away from the reference path and also produce higher cross-track error while following complex reference paths having high variation in radius of curvature. To address these challenges, the notion of look-ahead distance is leveraged in a novel way to develop a two-phase guidance strategy. Initially, when the UxV is far from the reference path, an optimized $L_1$ selection strategy is developed to guide the UxV toward the reference path in order to maintain minimal lateral acceleration command. Once the vehicle reaches a close vicinity of the reference path, a novel notion of corrector point is incorporated in the constant $L_1$-based guidance scheme to generate the lateral acceleration command that effectively reduces the root mean square of the cross-track error thereafter. Simulation results demonstrate that this proposed corrector point and look-ahead point pair-based guidance strategy along with the developed midcourse guidance scheme outperforms the conventional constant $L_1$ guidance scheme both in terms of feasibility and measures of effectiveness like cross-track error and lateral acceleration requirements.

arxiv情報

著者 Reva Dhillon,Agni Ravi Deepa,Hrishav Das,Subham Basak,Satadal Ghosh
発行日 2025-04-08 12:31:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | A Corrector-aided Look-ahead Distance-based Guidance for Reference Path Following with an Efficient Midcourse Guidance Strategy はコメントを受け付けていません

Unified Vertex Motion Estimation for Integrated Video Stabilization and Stitching in Tractor-Trailer Wheeled Robots

要約

トラクタートレーラーの車輪付きロボットは、ロジスティクスパークや長距離輸送などの分野での運用を強化するために、包括的な認識タスクを実行する必要があります。
これらのロボットの認識は、トラクターとトレーラーの間の非同期振動、トラクターとトレーラーの間の相対的な変化、および大きなサイズによって引き起こされる重要なカメラの視差など、3つの主要な課題に直面しています。
このホワイトペーパーでは、デュアル独立安定化モーションフィールド推定法を使用して、トラクターとトレーラーの間の非同期振動に対処し、重複する領域で同じオブジェクトの競合するモーション推定を効果的に排除します。
ランダム平面ベースのステッチモーションフィールド推定方法を利用して、トラクターとトレーラーの間の明確なヒッチによって引き起こされる連続的な相対ポーズの変化に取り組み、重複する領域の動的な不整合を排除します。
さらに、統一された頂点モーション推定法を適用して、トラクタートレーラーの大きな物理サイズによってもたらされる課題を管理し、トラクターとトレーラービューの間の重複する領域が大幅に低い領域を引き起こし、したがって、オーバーラップ領域の歪みが、非過剰な領域に伝播するのを防ぎます。
さらに、このフレームワークは、実際のトラクタートレーラーホイール付きロボットに正常に実装されています。
提案された統一された頂点モーションビデオの安定化とステッチ方法は、さまざまな挑戦的なシナリオで徹底的にテストされており、現実世界での正確性と実用性を示しています。

要約(オリジナル)

Tractor-trailer wheeled robots need to perform comprehensive perception tasks to enhance their operations in areas such as logistics parks and long-haul transportation. The perception of these robots faces three major challenges: the asynchronous vibrations between the tractor and trailer, the relative pose change between the tractor and trailer, and the significant camera parallax caused by the large size. In this paper, we employ the Dual Independence Stabilization Motion Field Estimation method to address asynchronous vibrations between the tractor and trailer, effectively eliminating conflicting motion estimations for the same object in overlapping regions. We utilize the Random Plane-based Stitching Motion Field Estimation method to tackle the continuous relative pose changes caused by the articulated hitch between the tractor and trailer, thus eliminating dynamic misalignment in overlapping regions. Furthermore, we apply the Unified Vertex Motion Estimation method to manage the challenges posed by the tractor-trailer’s large physical size, which results in severely low overlapping regions between the tractor and trailer views, thus preventing distortions in overlapping regions from exponentially propagating into non-overlapping areas. Furthermore, this framework has been successfully implemented in real tractor-trailer wheeled robots. The proposed Unified Vertex Motion Video Stabilization and Stitching method has been thoroughly tested in various challenging scenarios, demonstrating its accuracy and practicality in real-world.

arxiv情報

著者 Hao Liang,Zhipeng Dong,Hao Li,Yufeng Yue,Mengyin Fu,Yi Yang
発行日 2025-04-08 12:32:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Unified Vertex Motion Estimation for Integrated Video Stabilization and Stitching in Tractor-Trailer Wheeled Robots はコメントを受け付けていません

Modular Soft Wearable Glove for Real-Time Gesture Recognition and Dynamic 3D Shape Reconstruction

要約

ヒューマンコンピューターの相互作用(HCI)に対する需要の増加に伴い、柔軟なウェアラブルグローブは、仮想現実、医療リハビリテーション、および産業自動化の有望なソリューションとして浮上しています。
ただし、現在のテクノロジーには、感度が不十分で耐久性が限られているなどの問題があり、幅広いアプリケーションを妨げています。
このペーパーでは、人間の手の解剖学に合わせたセンサーモジュールに統合された、ライン型電極と液体金属(EGAIN)に基づいた、非常に敏感でモジュール型の柔軟な容量性センサーを紹介します。
提案されたシステムは独立して各指の関節からの曲げ情報をキャプチャしますが、隣接する指の間の追加の測定により、指間間隔の微妙なバリエーションの記録が可能になります。
この設計により、ポイントクラウドを使用した複雑な動きの正確なジェスチャー認識と動的な手の形態学的再構築を可能にします。
実験結果は、畳み込みニューラルネットワーク(CNN)と多層パーセプトロン(MLP)に基づいた分類器が、30のジェスチャーで99.15%の精度を達成することを示しています。
一方、トランスベースのディープニューラルネットワーク(DNN)は、平均距離(AD)2.076 \ PM3.231 mmで動的な手の形を正確に再構築し、個々のキーポイントでの再構築精度がSOTAベンチマークを9.7%から64.9%上回ります。
提案されたグローブは、ジェスチャー認識と手の再構築において優れた精度、堅牢性、スケーラビリティを示しており、次世代HCIシステムの有望なソリューションとなっています。

要約(オリジナル)

With the increasing demand for human-computer interaction (HCI), flexible wearable gloves have emerged as a promising solution in virtual reality, medical rehabilitation, and industrial automation. However, the current technology still has problems like insufficient sensitivity and limited durability, which hinder its wide application. This paper presents a highly sensitive, modular, and flexible capacitive sensor based on line-shaped electrodes and liquid metal (EGaIn), integrated into a sensor module tailored to the human hand’s anatomy. The proposed system independently captures bending information from each finger joint, while additional measurements between adjacent fingers enable the recording of subtle variations in inter-finger spacing. This design enables accurate gesture recognition and dynamic hand morphological reconstruction of complex movements using point clouds. Experimental results demonstrate that our classifier based on Convolution Neural Network (CNN) and Multilayer Perceptron (MLP) achieves an accuracy of 99.15% across 30 gestures. Meanwhile, a transformer-based Deep Neural Network (DNN) accurately reconstructs dynamic hand shapes with an Average Distance (AD) of 2.076\pm3.231 mm, with the reconstruction accuracy at individual key points surpassing SOTA benchmarks by 9.7% to 64.9%. The proposed glove shows excellent accuracy, robustness and scalability in gesture recognition and hand reconstruction, making it a promising solution for next-generation HCI systems.

arxiv情報

著者 Huazhi Dong,Chunpeng Wang,Mingyuan Jiang,Francesco Giorgio-Serchi,Yunjie Yang
発行日 2025-04-08 12:39:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Modular Soft Wearable Glove for Real-Time Gesture Recognition and Dynamic 3D Shape Reconstruction はコメントを受け付けていません

Adaptive RISE Control for Dual-Arm Unmanned Aerial Manipulator Systems with Deep Neural Networks

要約

マルチローターUAV(無人航空機)とマニピュレーターで構成される無人航空機マニピュレーターシステムは、研究者から大きな関心を集めています。
それにもかかわらず、システムのcom(com(中心)がマニピュレーターの動きとともに変化し、マルチローターUAVに影響を与える可能性があるため、デュアルアームマニピュレーターの動作は動的な課題をもたらします。
さらに、モデル化されていない効果、パラメーターの不確実性、および外部外乱は、コントロールパフォーマンスを大幅に分解し、予期せぬ危険につながる可能性があります。
これらの問題に取り組むために、このペーパーでは、DNN(ディープニューラルネットワーク)に基づいた非線形適応上昇(エラーのサインの堅牢な積分)コントローラーを提案します。
最初のステップでは、デュアルアーム航空マニピュレーターの運動学的および動的モデルの確立が含まれます。
その後、適応型ライジングコントローラーは、内部および外部の両方の課題に効果的に対処するために、DNNフィードフォワード用語で提案されます。
Lyapunov技術を使用することにより、追跡エラー信号の漸近収束が厳密に保証されます。
特に、このペーパーは、包括的な安定性分析を伴う最初のDNNベースの適応上昇コントローラー設計を提示することにより、先駆的な努力をマークします。
提案された制御アプローチの実用性と堅牢性を検証するために、実際のハードウェア実験のいくつかのグループが実施されます。
結果は、実際のシナリオの処理における開発された方法論の有効性を裏付けているため、デュアルアーム空中マニピュレーターシステムのパフォーマンスに関する貴重な洞察を提供します。

要約(オリジナル)

The unmanned aerial manipulator system, consisting of a multirotor UAV (unmanned aerial vehicle) and a manipulator, has attracted considerable interest from researchers. Nevertheless, the operation of a dual-arm manipulator poses a dynamic challenge, as the CoM (center of mass) of the system changes with manipulator movement, potentially impacting the multirotor UAV. Additionally, unmodeled effects, parameter uncertainties, and external disturbances can significantly degrade control performance, leading to unforeseen dangers. To tackle these issues, this paper proposes a nonlinear adaptive RISE (robust integral of the sign of the error) controller based on DNN (deep neural network). The first step involves establishing the kinematic and dynamic model of the dual-arm aerial manipulator. Subsequently, the adaptive RISE controller is proposed with a DNN feedforward term to effectively address both internal and external challenges. By employing Lyapunov techniques, the asymptotic convergence of the tracking error signals are guaranteed rigorously. Notably, this paper marks a pioneering effort by presenting the first DNN-based adaptive RISE controller design accompanied by a comprehensive stability analysis. To validate the practicality and robustness of the proposed control approach, several groups of actual hardware experiments are conducted. The results confirm the efficacy of the developed methodology in handling real-world scenarios, thereby offering valuable insights into the performance of the dual-arm aerial manipulator system.

arxiv情報

著者 Yang Wang,Hai Yu,Shizhen Wu,Zhichao Yang,Jianda Han,Yongchun Fang,Xiao Liang
発行日 2025-04-08 12:43:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Adaptive RISE Control for Dual-Arm Unmanned Aerial Manipulator Systems with Deep Neural Networks はコメントを受け付けていません