要約
インテリジェントな輸送システム(ITS)の複雑さの増加により、エッジサーバー、車両ノード、UAVなどの外部インフラストラクチャへの計算オフロードに大きな関心が寄せられています。
これらの動的で不均一な環境は、従来のオフロード戦略に課題をもたらし、適応的意思決定フレームワークとして強化学習(RL)とディープ補強学習(DRL)の調査を促します。
この調査では、車両エッジコンピューティング(VEC)のDRLベースのオフロードにおける最近の進歩に関する包括的なレビューを提示します。
学習パラダイム(シングルエージェント、マルチエージェントなど)、システムアーキテクチャ(たとえば、集中、分散、階層的)、および最適化目標(潜時、エネルギー、公平性など)に基づいて、既存の作業を分類および比較します。
さらに、マルコフ決定プロセス(MDP)の定式化がどのように適用されるかを分析し、報酬の設計、調整メカニズム、およびスケーラビリティの新たな傾向を強調します。
最後に、開かれた課題を特定し、将来の研究の方向性を概説して、次世代の堅牢でインテリジェントなオフロード戦略の開発を導きます。
要約(オリジナル)
The increasing complexity of Intelligent Transportation Systems (ITS) has led to significant interest in computational offloading to external infrastructures such as edge servers, vehicular nodes, and UAVs. These dynamic and heterogeneous environments pose challenges for traditional offloading strategies, prompting the exploration of Reinforcement Learning (RL) and Deep Reinforcement Learning (DRL) as adaptive decision-making frameworks. This survey presents a comprehensive review of recent advances in DRL-based offloading for vehicular edge computing (VEC). We classify and compare existing works based on learning paradigms (e.g., single-agent, multi-agent), system architectures (e.g., centralized, distributed, hierarchical), and optimization objectives (e.g., latency, energy, fairness). Furthermore, we analyze how Markov Decision Process (MDP) formulations are applied and highlight emerging trends in reward design, coordination mechanisms, and scalability. Finally, we identify open challenges and outline future research directions to guide the development of robust and intelligent offloading strategies for next-generation ITS.
arxiv情報
著者 | Ashab Uddin,Ahmed Hamdi Sakr,Ning Zhang |
発行日 | 2025-06-09 17:49:16+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google