要約
ニューラル ネットワークは、ドメイン シフトのある目に見えないデータをうまく一般化できません。これは、機械学習と AI における長年の問題です。
この問題を解決するために、より多くのデータを収集したり、モデルの容量を増加したりすることなく、ドメイン汎化のパフォーマンスを向上できる、シンプルなプラグアンドプレイのパラメーター不要のモジュールである MixStyle を提案します。
MixStyle の設計はシンプルです。トレーニング中に 2 つのランダムなインスタンスの特徴統計を 1 回の順方向パスで混合します。
このアイデアは、特徴統計が基本的に視覚領域を定義する画像スタイル情報を捕捉するという最近のスタイル伝達研究の発見に基づいています。
したがって、特徴統計を混合することは、特徴空間内で新しいドメインを合成し、データ拡張を達成する効率的な方法と見なすことができます。
MixStyle は数行のコードで簡単に実装でき、トレーニング目標を変更する必要がなく、教師ありドメイン一般化、半教師ありドメイン一般化、教師なしドメイン適応などのさまざまな学習パラダイムに適合できます。
私たちの実験では、MixStyle が画像認識、インスタンス検索、強化学習などの幅広いタスクにわたって分布外汎化パフォーマンスを大幅に向上させることができることを示しています。
要約(オリジナル)
Neural networks do not generalize well to unseen data with domain shifts — a longstanding problem in machine learning and AI. To overcome the problem, we propose MixStyle, a simple plug-and-play, parameter-free module that can improve domain generalization performance without the need to collect more data or increase model capacity. The design of MixStyle is simple: it mixes the feature statistics of two random instances in a single forward pass during training. The idea is grounded by the finding from recent style transfer research that feature statistics capture image style information, which essentially defines visual domains. Therefore, mixing feature statistics can be seen as an efficient way to synthesize new domains in the feature space, thus achieving data augmentation. MixStyle is easy to implement with a few lines of code, does not require modification to training objectives, and can fit a variety of learning paradigms including supervised domain generalization, semi-supervised domain generalization, and unsupervised domain adaptation. Our experiments show that MixStyle can significantly boost out-of-distribution generalization performance across a wide range of tasks including image recognition, instance retrieval and reinforcement learning.
arxiv情報
著者 | Kaiyang Zhou,Yongxin Yang,Yu Qiao,Tao Xiang |
発行日 | 2023-09-15 16:42:36+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google