SelfEval: Leveraging the discriminative nature of generative models for evaluation

要約

この研究では、テキストから画像への生成モデルを「反転」して、完全に自動化された方法で独自のテキストから画像の理解能力を評価できることを示します。
SelfEval と呼ばれる私たちのメソッドは、生成モデルを使用してテキスト プロンプトが与えられた実際の画像の可能性を計算し、生成モデルを識別タスクに直接適用できるようにします。
SelfEval を使用して、マルチモーダルなテキストと画像の識別モデルを評価するために作成された標準データセットを再利用して、生成モデルをきめ細かい方法で評価します。つまり、属性バインディング、色認識、計数、形状認識、空間理解に関するパフォーマンスを評価します。
私たちの知る限りでは、SelfEval は、テキストの忠実性を測定する際に、複数のモデルやベンチマークにわたるゴールドスタンダードの人による評価と高度な一致を示した最初の自動化された指標です。
さらに、SelfEval を使用すると、識別モデルと競合するパフォーマンスを実証する Winoground 画像スコアなどの困難なタスクで生成モデルを評価できます。
また、DrawBench などのベンチマークでテキストの忠実性を測定するための CLIP スコアなどの標準的な自動化メトリクスの重大な欠点と、SelfEval がこれらの問題をどのように回避するかについても示します。
私たちは、SelfEval によって拡散モデルの簡単かつ信頼性の高い自動評価が可能になることを期待しています。

要約(オリジナル)

In this work, we show that text-to-image generative models can be ‘inverted’ to assess their own text-image understanding capabilities in a completely automated manner. Our method, called SelfEval, uses the generative model to compute the likelihood of real images given text prompts, making the generative model directly applicable to discriminative tasks. Using SelfEval, we repurpose standard datasets created for evaluating multimodal text-image discriminative models to evaluate generative models in a fine-grained manner: assessing their performance on attribute binding, color recognition, counting, shape recognition, spatial understanding. To the best of our knowledge SelfEval is the first automated metric to show a high degree of agreement for measuring text-faithfulness with the gold-standard human evaluations across multiple models and benchmarks. Moreover, SelfEval enables us to evaluate generative models on challenging tasks such as Winoground image-score where they demonstrate competitive performance to discriminative models. We also show severe drawbacks of standard automated metrics such as CLIP-score to measure text faithfulness on benchmarks such as DrawBench, and how SelfEval sidesteps these issues. We hope SelfEval enables easy and reliable automated evaluation for diffusion models.

arxiv情報

著者 Sai Saketh Rambhatla,Ishan Misra
発行日 2023-11-17 18:58:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク