Ensemble Reinforcement Learning: A Survey

要約

強化学習 (RL) は、さまざまな科学的問題や応用問題に対処するための非常に効果的な手法として登場しました。
その成功にもかかわらず、特定の複雑なタスクは、単一のモデルとアルゴリズムだけで対処するのが依然として困難です。
これに応えて、RL とアンサンブル学習 (EL) の両方の利点を組み合わせた有望なアプローチであるアンサンブル強化学習 (ERL) が広く普及しています。
ERL は、複数のモデルまたはトレーニング アルゴリズムを活用して問題空間を包括的に調査し、強力な一般化機能を備えています。
この研究では、読者にこの分野の最近の進歩と課題の概要を提供するために、ERL に関する包括的な調査を紹介します。
まず、ERL の背景と動機について説明します。
次に、ERL で成功裏に実装されたモデルの選択や組み合わせなどの戦略を詳細に分析します。
続いて、ERL のアプリケーションを調査し、データセットを要約し、使用されているアルゴリズムを分析します。
最後に、いくつかの未解決の質問を概説し、ERL の将来の研究の方向性について説明します。
この調査は、将来の科学研究および工学応用への指針を提供することにより、ERL の進歩に大きく貢献します。

要約(オリジナル)

Reinforcement Learning (RL) has emerged as a highly effective technique for addressing various scientific and applied problems. Despite its success, certain complex tasks remain challenging to be addressed solely with a single model and algorithm. In response, ensemble reinforcement learning (ERL), a promising approach that combines the benefits of both RL and ensemble learning (EL), has gained widespread popularity. ERL leverages multiple models or training algorithms to comprehensively explore the problem space and possesses strong generalization capabilities. In this study, we present a comprehensive survey on ERL to provide readers with an overview of recent advances and challenges in the field. Firstly, we provide an introduction to the background and motivation for ERL. Secondly, we conduct a detailed analysis of strategies such as model selection and combination that have been successfully implemented in ERL. Subsequently, we explore the application of ERL, summarize the datasets, and analyze the algorithms employed. Finally, we outline several open questions and discuss future research directions of ERL. By offering guidance for future scientific research and engineering applications, this survey significantly contributes to the advancement of ERL.

arxiv情報

著者 Yanjie Song,P. N. Suganthan,Witold Pedrycz,Junwei Ou,Yongming He,Yingwu Chen,Yutong Wu
発行日 2023-12-13 13:27:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.NE パーマリンク