要約
この論文では、動的無人航空機支援コネクテッド自律走行車 (CAV) のための、依存関係を意識した新しいタスク スケジューリング戦略を提案します。
具体的には、複数の依存サブタスクからなるCAVの異なる計算タスクは、タスクを迅速に完了するために近くのCAVまたは基地局に賢明に割り当てられます。
したがって、平均タスク完了時間を最小限に抑えることを目的として、共同スケジューリング優先順位とサブタスク割り当ての最適化問題を定式化します。
この問題は長期的なシステムパフォーマンスを改善することを目的としており、マルコフ決定プロセスとして再定式化されます。
この問題を解決するために、リアルタイムで適応的なタスク スケジューリングの決定を行うことができる、合成 DDQN ベースのサブタスク スケジューリングと呼ばれる拡散ベースの強化学習アルゴリズムをさらに提案します。
拡散モデルベースの合成エクスペリエンス リプレイは強化学習フレームワークに統合されており、エクスペリエンス リプレイ バッファーに十分な合成データを生成できるため、収束が大幅に加速され、サンプル効率が向上します。
シミュレーション結果は、ベンチマーク スキームと比較して、タスク完了時間の短縮における提案されたアルゴリズムの有効性を示しています。
要約(オリジナル)
In this paper, we propose a novel dependency-aware task scheduling strategy for dynamic unmanned aerial vehicle-assisted connected autonomous vehicles (CAVs). Specifically, different computation tasks of CAVs consisting of multiple dependency subtasks are judiciously assigned to nearby CAVs or the base station for promptly completing tasks. Therefore, we formulate a joint scheduling priority and subtask assignment optimization problem with the objective of minimizing the average task completion time. The problem aims at improving the long-term system performance, which is reformulated as a Markov decision process. To solve the problem, we further propose a diffusion-based reinforcement learning algorithm, named Synthetic DDQN based Subtasks Scheduling, which can make adaptive task scheduling decision in real time. A diffusion model-based synthetic experience replay is integrated into the reinforcement learning framework, which can generate sufficient synthetic data in experience replay buffer, thereby significantly accelerating convergence and improving sample efficiency. Simulation results demonstrate the effectiveness of the proposed algorithm on reducing task completion time, comparing to benchmark schemes.
arxiv情報
著者 | Xiang Cheng,Zhi Mao,Ying Wang,Wen Wu |
発行日 | 2024-11-27 11:07:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google