Progressive Semantic-Visual Mutual Adaption for Generalized Zero-Shot Learning

要約

Generalized Zero-Shot Learning (GZSL) は、視覚情報と意味情報の間の固有の相互作用に依存して、目に見えるドメインから転送された知識によって目に見えないカテゴリを識別します。
これまでの研究では、主に共有属性に対応する領域をローカライズしていました。
さまざまな視覚的外観が同じ属性に対応する場合、共有属性は必然的に意味のあいまいさを導入し、正確な意味と視覚の相互作用の調査を妨げます。
このホワイト ペーパーでは、デュアル セマンティック ビジュアル トランスフォーマー モジュール (DSVTM) を展開して、属性プロトタイプと視覚的特徴の間の対応を漸進的にモデル化し、セマンティックの曖昧さの解消と知識の伝達性向上のためのプログレッシブ セマンティック ビジュアル相互適応 (PSVMA) ネットワークを構成します。
具体的には、DSVTM は、インスタンス中心のプロトタイプを学習してさまざまな画像に適応させるインスタンス駆動型セマンティック エンコーダーを考案し、一致しないセマンティックとビジュアルのペアを一致するものに再キャストできるようにします。
次に、セマンティックに動機付けられたインスタンス デコーダーは、セマンティックに関連するインスタンスの適応のために、一致したペア間の正確なクロスドメイン相互作用を強化し、明確な視覚的表現の生成を促進します。
さらに、GZSL で見られるクラスへの偏りを軽減するために、見られる予測と見られない予測の間の応答の一貫性を追求するために、偏りをなくす損失が提案されています。
PSVMA は、他の最先端の方法よりも一貫して優れたパフォーマンスを発揮します。
コードは https://github.com/ManLiuCoder/PSVMA で入手できます。

要約(オリジナル)

Generalized Zero-Shot Learning (GZSL) identifies unseen categories by knowledge transferred from the seen domain, relying on the intrinsic interactions between visual and semantic information. Prior works mainly localize regions corresponding to the sharing attributes. When various visual appearances correspond to the same attribute, the sharing attributes inevitably introduce semantic ambiguity, hampering the exploration of accurate semantic-visual interactions. In this paper, we deploy the dual semantic-visual transformer module (DSVTM) to progressively model the correspondences between attribute prototypes and visual features, constituting a progressive semantic-visual mutual adaption (PSVMA) network for semantic disambiguation and knowledge transferability improvement. Specifically, DSVTM devises an instance-motivated semantic encoder that learns instance-centric prototypes to adapt to different images, enabling the recast of the unmatched semantic-visual pair into the matched one. Then, a semantic-motivated instance decoder strengthens accurate cross-domain interactions between the matched pair for semantic-related instance adaption, encouraging the generation of unambiguous visual representations. Moreover, to mitigate the bias towards seen classes in GZSL, a debiasing loss is proposed to pursue response consistency between seen and unseen predictions. The PSVMA consistently yields superior performances against other state-of-the-art methods. Code will be available at: https://github.com/ManLiuCoder/PSVMA.

arxiv情報

著者 Man Liu,Feng Li,Chunjie Zhang,Yunchao Wei,Huihui Bai,Yao Zhao
発行日 2023-03-27 15:21:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク