AdaTriplet-RA: Domain Matching via Adaptive Triplet and Reinforced Attention for Unsupervised Domain Adaptation

要約

教師なしドメイン適応 (UDA) は、ソース ドメインのデータと注釈を利用できますが、トレーニング中にラベル付けされていないターゲット データにしかアクセスできない転移学習タスクです。
これまでのほとんどの方法は、ソース ドメインとターゲット ドメインの間で分布のアライメントを実行することによってドメイン ギャップを最小限に抑えようとしましたが、これには顕著な制限があります。
この弱点を軽減するために、ドメイン間のサンプルマッチングスキームを使用して、教師なしドメイン適応タスクを改善することを提案します。
広く使用されている堅牢なトリプレット損失を適用して、ドメイン間のサンプルを一致させます。
トレーニング中に生成された不正確な疑似ラベルの壊滅的な影響を減らすために、信頼できる疑似ラベルを自動的に選択し、それらを徐々に改良するための新しい不確実性測定方法を提案します。
高度な離散緩和 Gumbel Softmax 手法を適用して、機能を満たす適応型 Topk スキームを実現します。
さらに、ドメイン マッチングの 1 つのバッチ内でグローバル ランキングの最適化を有効にするために、平均精度 (AP) を報酬として使用して、ポリシー勾配アルゴリズムからの監視により、モデル全体が新しい強化された注意メカニズムを介して最適化されます。
私たちのモデル (\textbf{\textit{AdaTriplet-RA}} と呼ばれる) は、いくつかの公開ベンチマーク データセットで最先端の結果を達成し、その有効性は包括的なアブレーション研究によって検証されています。
私たちの方法は、ベースラインの精度を VisDa データセットで 9.7\% (ResNet-101) および 6.2\% (ResNet-50)、Domainnet データセットで 4.22\% (ResNet-50) 改善します。
{ソース コードは \textit{https://github.com/shuxy0120/AdaTriplet-RA}} で公開されています。

要約(オリジナル)

Unsupervised domain adaption (UDA) is a transfer learning task where the data and annotations of the source domain are available but only have access to the unlabeled target data during training. Most previous methods try to minimise the domain gap by performing distribution alignment between the source and target domains, which has a notable limitation, i.e., operating at the domain level, but neglecting the sample-level differences. To mitigate this weakness, we propose to improve the unsupervised domain adaptation task with an inter-domain sample matching scheme. We apply the widely-used and robust Triplet loss to match the inter-domain samples. To reduce the catastrophic effect of the inaccurate pseudo-labels generated during training, we propose a novel uncertainty measurement method to select reliable pseudo-labels automatically and progressively refine them. We apply the advanced discrete relaxation Gumbel Softmax technique to realise an adaptive Topk scheme to fulfil the functionality. In addition, to enable the global ranking optimisation within one batch for the domain matching, the whole model is optimised via a novel reinforced attention mechanism with supervision from the policy gradient algorithm, using the Average Precision (AP) as the reward. Our model (termed \textbf{\textit{AdaTriplet-RA}}) achieves State-of-the-art results on several public benchmark datasets, and its effectiveness is validated via comprehensive ablation studies. Our method improves the accuracy of the baseline by 9.7\% (ResNet-101) and 6.2\% (ResNet-50) on the VisDa dataset and 4.22\% (ResNet-50) on the Domainnet dataset. {The source code is publicly available at \textit{https://github.com/shuxy0120/AdaTriplet-RA}}.

arxiv情報

著者 Xinyao Shu,Shiyang Yan,Zhenyu Lu,Xinshao Wang,Yuan Xie
発行日 2022-11-16 13:04:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク