Learnable Data Augmentation for One-Shot Unsupervised Domain Adaptation

要約

本稿では、ワンショット教師なし領域適応(One-Shot Unsupervised Domain Adaptation: OS-UDA)問題に取り組むための、学習可能なデータ増強に基づく分類フレームワークを紹介する。OS-UDAはドメイン適応の中で最も困難な設定であり、モデル適応のために利用可能なラベル無しターゲットサンプルは1つだけであると仮定される。このような単一サンプルに駆動され、我々の手法LearnAug-UDAは、ソースデータをどのように増強し、知覚的にターゲットに類似させるかを学習する。その結果、このような拡張されたデータで訓練された分類器は、ターゲットドメインに対してうまく汎化する。これを実現するために、我々は、ソースデータを拡張するための知覚的損失とスタイル転送戦略を利用するエンコーダ・デコーダ・アーキテクチャを設計した。我々の手法は、2つの有名なドメイン適応ベンチマークであるDomainNetとVisDAにおいて、最先端の性能を達成している。プロジェクトコードはhttps://github.com/IIT-PAVIS/LearnAug-UDA。

要約(オリジナル)

This paper presents a classification framework based on learnable data augmentation to tackle the One-Shot Unsupervised Domain Adaptation (OS-UDA) problem. OS-UDA is the most challenging setting in Domain Adaptation, as only one single unlabeled target sample is assumed to be available for model adaptation. Driven by such single sample, our method LearnAug-UDA learns how to augment source data, making it perceptually similar to the target. As a result, a classifier trained on such augmented data will generalize well for the target domain. To achieve this, we designed an encoder-decoder architecture that exploits a perceptual loss and style transfer strategies to augment the source data. Our method achieves state-of-the-art performance on two well-known Domain Adaptation benchmarks, DomainNet and VisDA. The project code is available at https://github.com/IIT-PAVIS/LearnAug-UDA

arxiv情報

著者 Julio Ivan Davila Carrazco,Pietro Morerio,Alessio Del Bue,Vittorio Murino
発行日 2023-10-03 16:57:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク