要約
この論文では、化学発見に強化学習 (RL) を利用するための模擬実験室を提供します。
RL はかなりのデータ集約型であるため、現実世界でアクションを実行してエージェントを「オンザフライ」でトレーニングすることは実行不可能であり、危険である可能性があります。
さらに、化学処理と発見には、RL ベンチマークでは一般的に見られない課題が含まれるため、作業に豊富なスペースが提供されます。標準の Open AI Gym テンプレートに基づいた、高度にカスタマイズ可能なオープンソース RL 環境のセットである ChemGymRL を導入します。
。
ChemGymRL は、RL エージェントが操作およびトレーニングできる一連の相互接続された仮想化学ベンチをサポートします。
この論文では、よく知られた化学反応を例示的な例として使用して、これらの各ベンチを紹介および詳細に説明し、これらの各ベンチで一連の標準 RL アルゴリズムをトレーニングします。
最後に、ChemGymRL のさらなる開発と使用のビジョンとして、将来の作業の方向性のリストに加えて、いくつかの標準的な RL メソッドのパフォーマンスの議論と比較が提供されます。
要約(オリジナル)
This paper provides a simulated laboratory for making use of Reinforcement Learning (RL) for chemical discovery. Since RL is fairly data intensive, training agents `on-the-fly’ by taking actions in the real world is infeasible and possibly dangerous. Moreover, chemical processing and discovery involves challenges which are not commonly found in RL benchmarks and therefore offer a rich space to work in. We introduce a set of highly customizable and open-source RL environments, ChemGymRL, based on the standard Open AI Gym template. ChemGymRL supports a series of interconnected virtual chemical benches where RL agents can operate and train. The paper introduces and details each of these benches using well-known chemical reactions as illustrative examples, and trains a set of standard RL algorithms in each of these benches. Finally, discussion and comparison of the performances of several standard RL methods are provided in addition to a list of directions for future work as a vision for the further development and usage of ChemGymRL.
arxiv情報
著者 | Chris Beeler,Sriram Ganapathi Subramanian,Kyle Sprague,Nouha Chatti,Colin Bellinger,Mitchell Shahen,Nicholas Paquin,Mark Baula,Amanuel Dawit,Zihan Yang,Xinkai Li,Mark Crowley,Isaac Tamblyn |
発行日 | 2023-05-23 15:56:17+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google