Self-Supervision & Meta-Learning for One-Shot Unsupervised Cross-Domain Detection

要約

詳細な検出アプローチは、制御された条件では強力ですが、目に見えないドメインでソース モデルが既製で使用されている場合は脆弱に見え、失敗します。
ドメイン適応に関する既存の作業のほとんどは、設定を簡素化し、大規模なソース データセットとかなりの量のターゲット サンプルの両方に共同でアクセスします。
ただし、このシナリオは、ソーシャル メディアからの画像フィードを監視する場合など、多くの実際的なケースでは非現実的です。事前トレーニング済みのソース モデルしか利用できず、ユーザーによってアップロードされたすべてのターゲット画像は、トレーニング中に予測されなかった別のドメインに属します。
事前にトレーニングされたソース モデルを活用し、テスト時に見られる 1 つのターゲット サンプルのみを使用して教師なし適応を実行できるオブジェクト検出アルゴリズムを提示することで、この困難な設定に対処します。
私たちのマルチタスク アーキテクチャには、単一サンプルのクロスドメイン エピソードでモデル全体をメタトレーニングし、テスト条件に備えるために利用する自己教師ありブランチが含まれています。
展開時に、自己監視タスクは、着信サンプルに対して反復的に解決され、ワンショットで適応されます。
ソーシャル メディアの画像フィードの新しいデータセットを紹介し、アプローチの利点を示す最新のクロスドメイン検出方法を使用した完全なベンチマークを提示します。

要約(オリジナル)

Deep detection approaches are powerful in controlled conditions, but appear brittle and fail when source models are used off-the-shelf on unseen domains. Most of the existing works on domain adaptation simplify the setting and access jointly both a large source dataset and a sizable amount of target samples. However this scenario is unrealistic in many practical cases as when monitoring image feeds from social media: only a pretrained source model is available and every target image uploaded by the users belongs to a different domain not foreseen during training. We address this challenging setting by presenting an object detection algorithm able to exploit a pre-trained source model and perform unsupervised adaptation by using only one target sample seen at test time. Our multi-task architecture includes a self-supervised branch that we exploit to meta-train the whole model with single-sample cross-domain episodes, and prepare to the test condition. At deployment time the self-supervised task is iteratively solved on any incoming sample to one-shot adapt on it. We introduce a new dataset of social media image feeds and present a thorough benchmark with the most recent cross-domain detection methods showing the advantages of our approach.

arxiv情報

著者 F. Cappio Borlino,S. Polizzotto,B. Caputo,T. Tommasi
発行日 2022-09-01 08:52:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク