要約
この論文では、難しい組み合わせ問題や非線形問題を解決するための遺伝的アルゴリズム (GA) の構成と最適化に関連する課題に対処するための強化学習 (RL) アプローチを紹介します。
提案された RL+GA 手法は、特にフロー ショップ スケジューリング問題 (FSP) に関してテストされました。
ハイブリッド アルゴリズムにはニューラル ネットワーク (NN) が組み込まれており、オフポリシー メソッド Q ラーニングまたはオンポリシー メソッド Sarsa(0) を使用して、2 つの主要な遺伝的アルゴリズム (GA) 演算子、親選択メカニズムと突然変異を制御します。
各世代で、RL エージェントのアクションは、選択方法、親選択の確率、および子の突然変異の確率を決定します。
これにより、RL エージェントは学習したポリシーに基づいて選択と変更を動的に調整できます。
研究の結果は、プリミティブ GA のパフォーマンス向上における RL+GA アプローチの有効性を強調しています。
また、時間の経過とともに人口の多様性とソリューションの改善から学習して適応する能力も示しています。
この適応性により、進化の過程を通じて集団の多様性を維持しながら、静的なパラメーター構成と比較してスケジューリング ソリューションが向上します。
要約(オリジナル)
This paper introduces a reinforcement learning (RL) approach to address the challenges associated with configuring and optimizing genetic algorithms (GAs) for solving difficult combinatorial or non-linear problems. The proposed RL+GA method was specifically tested on the flow shop scheduling problem (FSP). The hybrid algorithm incorporates neural networks (NN) and uses the off-policy method Q-learning or the on-policy method Sarsa(0) to control two key genetic algorithm (GA) operators: parent selection mechanism and mutation. At each generation, the RL agent’s action is determining the selection method, the probability of the parent selection and the probability of the offspring mutation. This allows the RL agent to dynamically adjust the selection and mutation based on its learned policy. The results of the study highlight the effectiveness of the RL+GA approach in improving the performance of the primitive GA. They also demonstrate its ability to learn and adapt from population diversity and solution improvements over time. This adaptability leads to improved scheduling solutions compared to static parameter configurations while maintaining population diversity throughout the evolutionary process.
arxiv情報
著者 | Maissa Irmouli,Nourelhouda Benazzoug,Alaa Dania Adimi,Fatma Zohra Rezkellah,Imane Hamzaoui,Thanina Hamitouche |
発行日 | 2023-11-10 08:51:42+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google