要約
ドメイン一般化 (DG) は、ドメイン不変の知識を複数のソース ドメイン (トレーニング時に利用可能) からアプリオリな目に見えないターゲット ドメインに転送することに焦点を当てています。
これには、学習アルゴリズムがドメインとクラス間の偽の相関関係を打ち破るために、クラスを複数のドメインで表現する必要があります。
ただし、現実の世界では、クラスがドメインにリンクされている、つまり特定のドメインでのみ表現されていることがよくあり、これにより、これらのクラスの汎化パフォーマンスが非常に低下します。
この研究では、複数のソース ドメインで表現されたクラス (ドメイン共有クラス) からドメイン不変の知識を転送することによって、これらのドメインにリンクされたクラスの一般化可能な表現を学習することを目的としています。
この目的を達成するために、私たちはこのタスクをコミュニティに紹介し、ドメインリンク DG、FOND のための公平かつ矛盾した特徴空間正則化アルゴリズムを提案します。
一般的な DG タスクにわたるベースラインを使用した厳密で再現可能な実験により、ドメインにリンクされたクラスに対して最先端の DG 結果を達成する私たちのメソッドとそのバリアントの能力が実証されています。
また、現実世界のデータ不足に対処するために、ドメインにリンクされたクラスの一般化可能性を高めるデータ条件に関する実践的な洞察も提供します。
要約(オリジナル)
Domain generalization (DG) focuses on transferring domain-invariant knowledge from multiple source domains (available at train time) to an, a priori, unseen target domain(s). This requires a class to be expressed in multiple domains for the learning algorithm to break the spurious correlations between domain and class. However, in the real-world, classes may often be domain-linked, i.e. expressed only in a specific domain, which leads to extremely poor generalization performance for these classes. In this work, we aim to learn generalizable representations for these domain-linked classes by transferring domain-invariant knowledge from classes expressed in multiple source domains (domain-shared classes). To this end, we introduce this task to the community and propose a Fair and cONtrastive feature-space regularization algorithm for Domain-linked DG, FOND. Rigorous and reproducible experiments with baselines across popular DG tasks demonstrate our method and its variants’ ability to accomplish state-of-the-art DG results for domain-linked classes. We also provide practical insights on data conditions that increase domain-linked class generalizability to tackle real-world data scarcity.
arxiv情報
著者 | Kimathi Kaai,Saad Hossain,Sirisha Rambhatla |
発行日 | 2023-06-01 16:39:50+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google