要約
タイトル:スタイル転送ベースのタスク増強を利用したクロスドメイン少数派学習の探索
要約:
– クロスドメイン少数派学習において、最大の問題は、ソースドメインでトレーニングしたモデルがターゲットドメインに一般化するのが困難であることです。特に、ドメインシフトが大きい場合に顕著です。
– トレーニングタスクとターゲットタスクの間のドメインシフトが、通常、スタイルの変化として反映されることに着目し、タスク増強メタラーニング(TAML)を提案しました。
– TAMLは、複数のスタイルを持つ複数のタスクからの特徴を融合するためにマルチタスク補間(MTI)を紹介し、さらに、既存のタスクにスタイル転送を実施するための新しいタスク増強戦略であるマルチタスクスタイル転送(MTST)を提案しました。
– また、ランダムなスタイルを追加してモデルの一般化を改善するための機能修飾モジュール(FM)も紹介します。
– 提案されたTAMLは、トレーニングタスクのスタイルの多様性を増やし、優れたドメイン一般化能力を持つモデルのトレーニングに貢献します。
– 理論的分析と2つの人気のあるクロスドメイン少数派ベンチマークの徹底的な実験により、提案された手法の効果が示されます。
要約(オリジナル)
In cross-domain few-shot learning, the core issue is that the model trained on source domains struggles to generalize to the target domain, especially when the domain shift is large. Motivated by the observation that the domain shift between training tasks and target tasks usually can reflect in their style variation, we propose Task Augmented Meta-Learning (TAML) to conduct style transfer-based task augmentation to improve the domain generalization ability. Firstly, Multi-task Interpolation (MTI) is introduced to fuse features from multiple tasks with different styles, which makes more diverse styles available. Furthermore, a novel task-augmentation strategy called Multi-Task Style Transfer (MTST) is proposed to perform style transfer on existing tasks to learn discriminative style-independent features. We also introduce a Feature Modulation module (FM) to add random styles and improve generalization of the model. The proposed TAML increases the diversity of styles of training tasks, and contributes to training a model with better domain generalization ability. The effectiveness is demonstrated via theoretical analysis and thorough experiments on two popular cross-domain few-shot benchmarks.
arxiv情報
著者 | Shuzhen Rao,Jun Huang,Zengming Tang |
発行日 | 2023-04-26 01:44:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI