Exploiting Style Transfer-based Task Augmentation for Cross-Domain Few-Shot Learning

要約

クロスドメインの少数ショット学習の主な問題は、特にドメイン シフトが非常に大きい場合に、ソース ドメインのソース タスクでトレーニングされたモデルが、ターゲット ドメインのターゲット タスクにうまく一般化できないことです。
トレーニング タスクとターゲット タスクの間のドメイン シフトは、通常、スタイルのバリエーションに反映される可能性があるという観察に動機付けられて、ドメインの一般化能力を向上させるために、スタイル転送ベースのタスク拡張を実行する Task Augmented Meta-Learning (TAML) を提案します。
まず、マルチタスク補間 (MTI) を導入して、さまざまなスタイルのさまざまなタスクからのタスクに機能融合を実行します。これにより、より多様なスタイルを利用できるようになります。
さらに、マルチタスク スタイル トランスファー (MTST) と呼ばれる新しいタスク拡張戦略が提唱され、既存のタスクに対してスタイル トランスファーを実行して、差別的なスタイルに依存しない機能を学習します。
最後に、Feature Modulation モジュール (FM) を導入して、ランダム スタイルを追加します。これは、モデルの一般化を改善することを目的としています。
提案された TAML は、トレーニング タスクのスタイルの多様性を高め、より優れたドメインの汎化能力を備えたモデルのトレーニングに貢献します。
有効性は、2 つの一般的なクロスドメイン フューズ ショット ベンチマークでの理論的分析と徹底的な実験によって実証されています。

要約(オリジナル)

In cross-domain few-shot learning, the core issue is that the model trained on source tasks from source domains can not generalize well to target tasks from the target domain, especially when the domain shift is very large. Motivated by the observation that the domain shift between training tasks and target tasks usually can reflect in their style variation, we propose Task Augmented Meta-Learning (TAML) to conduct style transfer-based task augmentation to improve the domain generalization ability. Firstly, Multi-task Interpolation (MTI) is introduced to perform feature fusion on tasks from different tasks with different styles, which makes more diverse styles available. Furthermore, a novel task-augmentation strategy called Multi-Task Style Transfer (MTST) is put forward to perform style transfer on existing tasks to learn discriminative style-independent features. At last, we introduce Feature Modulation module (FM) to add random styles, which aims to improve the generalization of our model. The proposed TAML increases the diversity of styles of training tasks, and contributes to training a model with better domain generalization ability. The effectiveness is demonstrated via theoretical analysis and thorough experiments on two popular cross-domain few-shot benchmarks.

arxiv情報

著者 Shuzhen Rao,Jun Huang,Zengming Tang
発行日 2023-01-19 07:32:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク