Searching for High-Value Molecules Using Reinforcement Learning and Transformers

要約

テキスト表現に対する強化学習 (RL) は、グラフを検索できる価値の高いポリシーを見つけるのに効果的です。
ただし、RL がこの課題に効果を発揮するには、検索空間とアルゴリズム設計を慎重に構造化する必要があります。
私たちは広範な実験を通じて、テキスト文法のさまざまな設計の選択とトレーニングのためのアルゴリズムの選択が、望ましい特性を持つ分子を生成する RL ポリシーの能力にどのような影響を与えるかを調査します。
私たちは新しい RL ベースの分子設計アルゴリズム (ChemRLformer) に到達し、計算的に複雑なタンパク質ドッキング シミュレーションを含む 25 の分子設計タスクを使用して徹底的な分析を実行します。
この分析から、私たちはこの問題空間における独自の洞察を発見し、どの設計選択がテキストベースの分子設計に実際に役立つのかを解明することで、ChemRLformer が従来の研究よりも簡単でありながら最先端のパフォーマンスを達成していることを示します。

要約(オリジナル)

Reinforcement learning (RL) over text representations can be effective for finding high-value policies that can search over graphs. However, RL requires careful structuring of the search space and algorithm design to be effective in this challenge. Through extensive experiments, we explore how different design choices for text grammar and algorithmic choices for training can affect an RL policy’s ability to generate molecules with desired properties. We arrive at a new RL-based molecular design algorithm (ChemRLformer) and perform a thorough analysis using 25 molecule design tasks, including computationally complex protein docking simulations. From this analysis, we discover unique insights in this problem space and show that ChemRLformer achieves state-of-the-art performance while being more straightforward than prior work by demystifying which design choices are actually helpful for text-based molecule design.

arxiv情報

著者 Raj Ghugare,Santiago Miret,Adriana Hugessen,Mariano Phielipp,Glen Berseth
発行日 2023-10-04 15:40:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cond-mat.mtrl-sci, cs.AI, cs.LG パーマリンク