Generative Flow Networks for Precise Reward-Oriented Active Learning on Graphs

要約

【タイトル】
グラフ構造データにおける正確な報酬重視アクティブラーニングのための生成流ネットワーク

【要約】
・グラフ構造データに多数のアクティブラーニング手法が成功を収めているが、そのスコア関数の事前定義にもとづくグラフニューラルネットワークの性能向上やラベル数の削減に焦点を当てたものであり、報酬に比例するポリシー分布の学習と限られた探索能力があるため、問題点もある。
・本論文では、報酬関数に比例する確率でシーケンシャルなアクションによって様々なサンプルを生成する生成プロセスとして、グラフアクティブラーニング問題を新しく定式化する手法、GFlowGNNを提案する。加えて、ネットワークを特別に設計された報酬で訓練されたポリシーネットワークを用いて、生成フローネットワークに基づくフローノードとフロー特徴を読み出し、効率的にグラフをモデリングすることを提案する。
・実験結果から、本手法は探索能力と転移可能性に優れ、各種最先端手法を上回る性能を示すことが確認された。

【要点】
– グラフ構造データのアクティブラーニングは、スコア関数事前定義のグラフニューラルネットワークの性能改善やラベル数の削減を目的とする多数手法があるが、報酬に応じた学習と探索能力が限られる
– 本論文では、報酬に比例する確率でシーケンシャルなアクションによって様々なサンプルを生成する生成プロセスを新しく定式化し、GFlowGNNを提案
– ポリシーネットワークを特別に設計された報酬で訓練することにより、フローノードとフロー特徴を読み出し、生成フローネットワークを用いてグラフをモデリングする
– 実験結果から、本手法は探索能力と転移可能性が優れ、多数の最先端手法を上回る性能を示すことが確認された。

要約(オリジナル)

Many score-based active learning methods have been successfully applied to graph-structured data, aiming to reduce the number of labels and achieve better performance of graph neural networks based on predefined score functions. However, these algorithms struggle to learn policy distributions that are proportional to rewards and have limited exploration capabilities. In this paper, we innovatively formulate the graph active learning problem as a generative process, named GFlowGNN, which generates various samples through sequential actions with probabilities precisely proportional to a predefined reward function. Furthermore, we propose the concept of flow nodes and flow features to efficiently model graphs as flows based on generative flow networks, where the policy network is trained with specially designed rewards. Extensive experiments on real datasets show that the proposed approach has good exploration capability and transferability, outperforming various state-of-the-art methods.

arxiv情報

著者 Yinchuan Li,Zhigang Li,Wenqian Li,Yunfeng Shao,Yan Zheng,Jianye Hao
発行日 2023-04-24 10:47:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG パーマリンク