DiverseFlow: Sample-Efficient Diverse Mode Coverage in Flows

要約

フローベースの生成モデルの多くの実際のアプリケーションは、ターゲット分布の複数のモードをカバーする多様なサンプルセットを望んでいます。
ただし、多様なセットを取得するための主なアプローチは、サンプル効率ではありません。ソース分布から多くのサンプルを独立して取得し、目的のモードカバレッジが達成されるまでフローを通してそれらをマッピングすることを含むためです。
繰り返しのサンプリングの代替として、フローモデルの多様性を改善するためのトレーニングなしのアプローチであるDiverseFlowを紹介します。
私たちの重要なアイデアは、決定的なポイントプロセスを使用して、固定サンプリング予算の下で多様性を促進するサンプル間の結合を誘導することです。
本質的に、Diverseflowは、サンプルが少ない学習フローモデルのより多くのバリエーションを探索できるようになります。
ポリシーな単語を備えたテキストガイド付きの画像生成、大規模な穴の入力などの逆の問題、クラス条件の画像統合など、サンプル効率の高い多様性が望ましいタスクの方法の有効性を実証します。

要約(オリジナル)

Many real-world applications of flow-based generative models desire a diverse set of samples that cover multiple modes of the target distribution. However, the predominant approach for obtaining diverse sets is not sample-efficient, as it involves independently obtaining many samples from the source distribution and mapping them through the flow until the desired mode coverage is achieved. As an alternative to repeated sampling, we introduce DiverseFlow: a training-free approach to improve the diversity of flow models. Our key idea is to employ a determinantal point process to induce a coupling between the samples that drives diversity under a fixed sampling budget. In essence, DiverseFlow allows exploration of more variations in a learned flow model with fewer samples. We demonstrate the efficacy of our method for tasks where sample-efficient diversity is desirable, such as text-guided image generation with polysemous words, inverse problems like large-hole inpainting, and class-conditional image synthesis.

arxiv情報

著者 Mashrur M. Morshed,Vishnu Boddeti
発行日 2025-04-10 16:09:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク