GFlowNet Foundations

要約

生成フロー ネットワーク (GFlowNets) は、アクティブ ラーニングのコンテキストで多様な候補セットをサンプリングする方法として導入されており、与えられた報酬関数にほぼ比例してサンプリングを行うトレーニング目標を持っています。
この論文では、GFlowNet の追加の理論的特性をいくつか示します。
これらは、一部の変数が指定されていない場合の同時確率分布および対応する周辺分布を推定するために使用でき、特に興味深いのは、セットやグラフなどの複合オブジェクトにわたる分布を表すことができます。
GFlowNets は、通常、計算コストのかかる MCMC メソッドによって実行される作業を、単一のトレーニングされた生成パスで償却します。
これらは、分配関数と自由エネルギー、サブセット (サブグラフ) が与えられたスーパーセット (スーパーグラフ) の条件付き確率、および特定のセット (グラフ) のすべてのスーパーセット (スーパーグラフ) にわたる周辺分布を推定するために使用することもできます。
エントロピーと相互情報量の推定を可能にするバリエーション、パレートフロンティアからのサンプリング、報酬最大化ポリシーへの接続、確率的環境、継続的アクション、モジュール型エネルギー関数への拡張を導入します。

要約(オリジナル)

Generative Flow Networks (GFlowNets) have been introduced as a method to sample a diverse set of candidates in an active learning context, with a training objective that makes them approximately sample in proportion to a given reward function. In this paper, we show a number of additional theoretical properties of GFlowNets. They can be used to estimate joint probability distributions and the corresponding marginal distributions where some variables are unspecified and, of particular interest, can represent distributions over composite objects like sets and graphs. GFlowNets amortize the work typically done by computationally expensive MCMC methods in a single but trained generative pass. They could also be used to estimate partition functions and free energies, conditional probabilities of supersets (supergraphs) given a subset (subgraph), as well as marginal distributions over all supersets (supergraphs) of a given set (graph). We introduce variations enabling the estimation of entropy and mutual information, sampling from a Pareto frontier, connections to reward-maximizing policies, and extensions to stochastic environments, continuous actions and modular energy functions.

arxiv情報

著者 Yoshua Bengio,Salem Lahlou,Tristan Deleu,Edward J. Hu,Mo Tiwari,Emmanuel Bengio
発行日 2023-07-10 15:45:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML パーマリンク