要約
ドメイン一般化 (DG) は、トレーニング ドメインに関連はあるものの、トレーニング ドメインとは異なる新しいドメインにうまく一般化する学習モデルに関するものです。
これは機械学習の基本的な問題であり、近年大きな注目を集めています。
多数のアプローチが提案されている。
さまざまなアプローチがさまざまな観点から動機付けられているため、この分野の全体的な理解を得ることが困難になります。
この論文では、ドメインの一般化のための因果関係のフレームワークを提案し、そのフレームワークにおける一般的な DG アプローチの理解を示します。
私たちの研究は、次の疑問に新たな光を当てます: (1) 各 DG 手法の背後にある重要なアイデアは何ですか?
(2) 理論的にはなぜ新しい領域への一般化が向上すると期待されるのですか?
(3) さまざまな DG 手法は相互にどのように関連しており、相対的な利点と限界は何ですか?
DG に関する統一的な視点を提供することで、研究者が根底にある原理をより深く理解し、機械学習におけるこの重要な問題に対するより効果的なアプローチを開発できるようにしたいと考えています。
要約(オリジナル)
Domain generalization (DG) is about learning models that generalize well to new domains that are related to, but different from, the training domain(s). It is a fundamental problem in machine learning and has attracted much attention in recent years. A large number of approaches have been proposed. Different approaches are motivated from different perspectives, making it difficult to gain an overall understanding of the area. In this paper, we propose a causal framework for domain generalization and present an understanding of common DG approaches in the framework. Our work sheds new lights on the following questions: (1) What are the key ideas behind each DG method? (2) Why is it expected to improve generalization to new domains theoretically? (3) How are different DG methods related to each other and what are relative advantages and limitations? By providing a unified perspective on DG, we hope to help researchers better understand the underlying principles and develop more effective approaches for this critical problem in machine learning.
arxiv情報
著者 | Nevin L. Zhang,Kaican Li,Han Gao,Weiyan Xie,Zhi Lin,Zhenguo Li,Luning Wang,Yongxiang Huang |
発行日 | 2023-07-13 15:40:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google