要約
この論文では、強化学習フレームワーク内でディープ ニューラル ネットワーク (DNN) を利用した、マルチエージェント航空宇宙システムの協調制御のための高度な戦略を紹介します。
私たちのアプローチは、航空宇宙指向のピック アンド プレイス シナリオとして組み立てられた、物体再配置タスクにおけるシステムの運用効率を高めるための自律的なタスク割り当ての最適化に重点を置いています。
MuJoCo 環境内でこの調整の課題をモデル化することで、深層強化学習アルゴリズムを採用して DNN ベースのポリシーをトレーニングし、マルチエージェント システム全体でタスク完了率を最大化します。
目的関数は、効果的なオブジェクト転送速度を最大化するように明示的に設計されており、ニューラル ネットワーク機能を活用して、高次元の航空宇宙環境における複雑な状態およびアクション空間を処理します。
広範なシミュレーションを通じて、ゲーム理論の原理に根ざしたヒューリスティックな組み合わせアプローチに対して提案された方法のベンチマークを行い、トレーニングされたポリシーにより最大 16\% 高いタスク効率を達成するという顕著なパフォーマンスの向上を実証しました。
実験的検証は、現実世界の航空宇宙シナリオにおけるアプローチの有効性を実証するために、マルチエージェント ハードウェア セットアップで実施されます。
要約(オリジナル)
In this paper, we present an advanced strategy for the coordinated control of a multi-agent aerospace system, utilizing Deep Neural Networks (DNNs) within a reinforcement learning framework. Our approach centers on optimizing autonomous task assignment to enhance the system’s operational efficiency in object relocation tasks, framed as an aerospace-oriented pick-and-place scenario. By modeling this coordination challenge within a MuJoCo environment, we employ a deep reinforcement learning algorithm to train a DNN-based policy to maximize task completion rates across the multi-agent system. The objective function is explicitly designed to maximize effective object transfer rates, leveraging neural network capabilities to handle complex state and action spaces in high-dimensional aerospace environments. Through extensive simulation, we benchmark the proposed method against a heuristic combinatorial approach rooted in game-theoretic principles, demonstrating a marked performance improvement, with the trained policy achieving up to 16\% higher task efficiency. Experimental validation is conducted on a multi-agent hardware setup to substantiate the efficacy of our approach in a real-world aerospace scenario.
arxiv情報
著者 | Ye Zhang,Linyue Chu,Letian Xu,Kangtong Mo,Zhengjian Kang,Xingyu Zhang |
発行日 | 2024-12-13 05:43:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google