schlably: A Python Framework for Deep Reinforcement Learning Based Scheduling Experiments

要約

深層強化学習 (DRL) ベースの生産スケジューリング (PS) に関する研究は、主にさまざまな業界設定でスケジューリング問題を最適化するという高い需要のために、近年多くの注目を集めています。
多数の研究が実施され、独立した実験として公開されていますが、これらは多くの場合、問題の設定と解決方法に関してわずかに異なるだけです。
これらの実験のプログラムのコアは通常、非常に似ています。
この事実にもかかわらず、DRL アルゴリズムを使用した PS 問題の実験のための標準化された回復力のあるフレームワークは、これまで確立できませんでした。
このホワイト ペーパーでは、DRL に基づく PS ソリューション戦略の開発を容易にする包括的なツールセットを研究者に提供する Python ベースのフレームワークである schlably を紹介します。
頑丈で柔軟なバックボーンの作成に必要な冗長なオーバーヘッド作業を schlably で排除し、実施された研究作業の比較可能性と再利用可能性を高めます。

要約(オリジナル)

Research on deep reinforcement learning (DRL) based production scheduling (PS) has gained a lot of attention in recent years, primarily due to the high demand for optimizing scheduling problems in diverse industry settings. Numerous studies are carried out and published as stand-alone experiments that often vary only slightly with respect to problem setups and solution approaches. The programmatic core of these experiments is typically very similar. Despite this fact, no standardized and resilient framework for experimentation on PS problems with DRL algorithms could be established so far. In this paper, we introduce schlably, a Python-based framework that provides researchers a comprehensive toolset to facilitate the development of PS solution strategies based on DRL. schlably eliminates the redundant overhead work that the creation of a sturdy and flexible backbone requires and increases the comparability and reusability of conducted research work.

arxiv情報

著者 Constantin Waubert de Puiseau,Jannik Peters,Christian Dörpelkus,Hasan Tercan,Tobias Meisen
発行日 2023-02-24 09:13:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク