Deconstructed Generation-Based Zero-Shot Model

要約

世代ベースの方法は、ゼロショット学習の研究で最近の注目を集めています。
このホワイト ペーパーでは、生成器と分類器のフレームワークを分解して、その改善と拡張を導きます。
ジェネレーターが学習したインスタンス レベルの分布をガウス分布と交互に分析することから始めます。
次に、分類器の勾配を分解することにより、分類器のトレーニングでジェネレーターによって学習されたクラスレベルの分布とインスタンスレベルの分布の役割を明らかにします。
最後に、ジェネレーターと分類子の分解からジェネレーター分類子フレームワークを改善するためのガイドラインをまとめます。つまり、(i) ZSL ジェネレーターの鍵は属性の一般化です。
(ii) 分類器の学習は、トレーニング中に見られたクラス間の決定境界に対する疑似目に見えないサンプルの影響を軽減し、見られないバイアスを減らすことを強調します。
ガイドラインに基づいた簡単な方法を提案します。
複雑な設計がなければ、提案された方法は、提案されたガイドラインの有効性を示す 4 つのパブリック ZSL データセットで最新技術よりも優れています。
提案された方法は、生成モデルを属性から視覚中心への単一マッピングモデルに置き換える場合でも効果的であり、その強力な転送可能性を示しています。
コードは承認後に公開されます。

要約(オリジナル)

Generation-based methods have captured most of the recent attention in Zero-Shot Learning research. In this paper, we attempt to deconstruct the generator-classifier framework to guide its improvement and extension. We begin by analyzing the generator-learned instance-level distribution by alternating it with a Gaussian distribution. Then we reveal the roles of the class-level distribution and the instance-level distribution learned by the generator in classifier training by decomposing the classifier gradients. We finally conclude with the guidelines for improving the generator-classifier framework from the deconstruction of the generator and the classifier, i.e., (i) The key for the ZSL generator is attribute generalization; and (ii) classifier learning emphasizes mitigating the impact of pseudo unseen samples on decision boundaries between seen classes during training, and reducing the seen-unseen bias. We propose a simple method based on the guidelines. Without complex designs, the proposed method outperforms the state of the art on four public ZSL datasets, which demonstrates the validity of the proposed guidelines. The proposed method is still effective when replacing the generative model with an attribute-to-visual center single mapping model, demonstrating its strong transferability. Codes will be public upon acceptance.

arxiv情報

著者 Dubing Chen,Yuming Shen,Haofeng Zhang,Philip H. S. Torr
発行日 2022-08-22 13:19:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク