要約
最適化のために進化アルゴリズム (EA) と強化学習 (RL) を統合する進化強化学習 (ERL) は、顕著なパフォーマンスの向上を実証しました。
両方のアプローチの長所を融合することにより、ERL は有望な研究の方向性として浮上しました。
この調査は、ERL の多様な研究部門の包括的な概要を提供します。
具体的には、関連するアルゴリズムの最近の進歩を体系的に要約し、EA を利用した RL の最適化、RL を利用した EA の最適化、EA と RL の相乗的最適化という 3 つの主要な研究方向を特定します。
その後、複数の研究分野を組織し、各研究の方向性を詳細に分析します。
各ブランチが取り組むことを目指している問題と、EA と RL の統合によってこれらの課題にどのように対処するかを説明します。
結論として、さまざまな研究方向にわたる潜在的な課題と将来の研究の方向性について議論します。
要約(オリジナル)
Evolutionary Reinforcement Learning (ERL), which integrates Evolutionary Algorithms (EAs) and Reinforcement Learning (RL) for optimization, has demonstrated remarkable performance advancements. By fusing the strengths of both approaches, ERL has emerged as a promising research direction. This survey offers a comprehensive overview of the diverse research branches in ERL. Specifically, we systematically summarize recent advancements in relevant algorithms and identify three primary research directions: EA-assisted optimization of RL, RL-assisted optimization of EA, and synergistic optimization of EA and RL. Following that, we conduct an in-depth analysis of each research direction, organizing multiple research branches. We elucidate the problems that each branch aims to tackle and how the integration of EA and RL addresses these challenges. In conclusion, we discuss potential challenges and prospective future research directions across various research directions.
arxiv情報
著者 | Pengyi Li,Jianye Hao,Hongyao Tang,Xian Fu,Yan Zheng,Ke Tang |
発行日 | 2024-01-22 14:06:37+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google