Advancing Graph Generation through Beta Diffusion

要約

拡散モデルは自然画像の生成に有効であることが実証されており、グラフなどのさまざまなデータ タイプを生成するように拡張されています。
この新世代の拡散ベースのグラフ生成モデルは、変分オートエンコーダーや敵対的生成ネットワークに依存する方法と比較して、大幅なパフォーマンスの向上を実証しました。
ただし、これらのモデルのほとんどはガウス拡散プロセスまたはカテゴリカル拡散プロセスを採用しているため、まばらで裾の長いデータ分布に苦戦する可能性があることを認識することが重要です。
私たちの研究では、多様なグラフ構造の捕捉に特に優れた拡散ベースの生成モデルである Graph Beta Diffusion (GBD) を導入します。
GBD は、グラフ隣接行列のスパースおよび範囲限定特性に合わせて調整されたベータ拡散プロセスを利用します。
さらに、他の部分では柔軟性を維持しながら、重要なグラフ構造の生成を安定化することで、生成されるグラフの現実性を高める変調技術を開発しました。
3 つの一般的なグラフ ベンチマークと 2 つの生化学グラフ ベンチマークにわたる GBD の卓越したパフォーマンスは、現実世界のグラフ データの複雑さを効果的にキャプチャする機能を強調しています。
コードは https://github.com/YH-UtMSB/Graph_Beta_Diffusion で公開されます。

要約(オリジナル)

Diffusion models have demonstrated effectiveness in generating natural images and have been extended to generate diverse data types, including graphs. This new generation of diffusion-based graph generative models has demonstrated significant performance improvements over methods that rely on variational autoencoders or generative adversarial networks. It’s important to recognize, however, that most of these models employ Gaussian or categorical diffusion processes, which can struggle with sparse and long-tailed data distributions. In our work, we introduce Graph Beta Diffusion (GBD), a diffusion-based generative model particularly adept at capturing diverse graph structures. GBD utilizes a beta diffusion process, tailored for the sparse and range-bounded characteristics of graph adjacency matrices. Furthermore, we have developed a modulation technique that enhances the realism of the generated graphs by stabilizing the generation of critical graph structures, while preserving flexibility elsewhere. The outstanding performance of GBD across three general graph benchmarks and two biochemical graph benchmarks highlights its capability to effectively capture the complexities of real-world graph data. The code will be made available at https://github.com/YH-UtMSB/Graph_Beta_Diffusion

arxiv情報

著者 Yilin He,Xinyang Liu,Bo Chen,Mingyuan Zhou
発行日 2024-06-13 17:42:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク