要約
ユニバーサルドメインアダプテーション(UDA)は、ラベルセットに関する事前の知識がなくても、共通クラスの知識をソースドメインからターゲットドメインに転送することを目的としています。これには、ターゲットドメイン内の既知のサンプルから未知のサンプルを区別する必要があります。
最近の方法は、既知のクラス内のサンプル間親和性を高めることを好みましたが、未知のサンプルと既知のサンプルの間のサンプル間親和性を無視していました。
このホワイトペーパーでは、このようなサンプル間の親和性を活用することでUDAのパフォーマンスを大幅に向上できることを明らかにし、それに基づいて知識を意識したUDAフレームワークを提案します。
まず、ソースドメイン内の隣接するサンプルを検索することにより、各ターゲットサンプルの知識を推定します。
次に、推定された知識に適用される自動しきい値方式を提案して、ターゲットサンプルが不明であるか既知であるかを判断します。
次に、以前の方法のように各既知のクラス内のサンプル間親和性を高めることに加えて、未知のターゲットサンプルと既知のサンプル間のサンプル間親和性を減らすために、推定された知識に基づいて新しい損失を設計します。
最後に、4つの公開データセットでの実験は、私たちの方法が既存の最先端の方法を大幅に上回っていることを示しています。
要約(オリジナル)
Universal domain adaptation (UDA) aims to transfer the knowledge of common classes from source domain to target domain without any prior knowledge on the label set, which requires to distinguish the unknown samples from the known ones in the target domain. Recent methods preferred to increase the inter-sample affinity within a known class, while they ignored the inter-sample affinity between the unknown samples and the known ones. This paper reveals that exploiting such inter-sample affinity can significantly improve the performance of UDA and proposes a knowability-aware UDA framework based on it. First, we estimate the knowability of each target sample by searching its neighboring samples in the source domain. Then, we propose an auto-thresholding scheme applied to the estimated knowability to determine whether a target sample is unknown or known. Next, in addition to increasing the inter-sample affinity within each known class like previous methods, we design new losses based on the estimated knowability to reduce the inter-sample affinity between the unknown target samples and the known ones. Finally, experiments on four public datasets demonstrate that our method significantly outperforms existing state-of-the-art methods.
arxiv情報
著者 | Yifan Wang,Lin Zhang,Ran Song,Lin Ma,Wei Zhang |
発行日 | 2022-07-19 13:49:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google