CycleMix: Mixing Source Domains for Domain Generalization in Style-Dependent Data

要約

深層学習ベースのシステムが日常生活に不可欠な部分になるにつれて、その汎化能力に限界が現れ始めています。
機械学習アルゴリズムは通常、i.i.d に依存します。
これは、トレーニング データと検証データが同じ分布に従うことが期待されることを意味しますが、実際には必ずしも当てはまりません。
画像分類の場合、アルゴリズムが一般化できないよくある理由の 1 つは、画像スタイルとターゲット クラスの関連付けなど、トレーニング データに存在する偽の相関に依存していることです。
これらの関連性は目に見えないテスト データには存在しない可能性があり、有効性の大幅な低下につながります。
この研究では、画像スタイルに起因する特徴を無視し、スタイル不変の画像表現に基づいて推論する堅牢な特徴抽出器をトレーニングすることによって、このドメイン一般化 (DG) 問題を軽減しようと試みます。
これを達成するために、CycleGAN モデルをトレーニングしてトレーニング データに存在するさまざまなスタイルを学習し、それらをランダムに混合して新しいスタイル属性を持つサンプルを作成して一般化を向上させます。
PACS DG ベンチマークの実験結果により、提案された方法が検証されました。

要約(オリジナル)

As deep learning-based systems have become an integral part of everyday life, limitations in their generalization ability have begun to emerge. Machine learning algorithms typically rely on the i.i.d. assumption, meaning that their training and validation data are expected to follow the same distribution, which does not necessarily hold in practice. In the case of image classification, one frequent reason that algorithms fail to generalize is that they rely on spurious correlations present in training data, such as associating image styles with target classes. These associations may not be present in the unseen test data, leading to significant degradation of their effectiveness. In this work, we attempt to mitigate this Domain Generalization (DG) problem by training a robust feature extractor which disregards features attributed to image-style but infers based on style-invariant image representations. To achieve this, we train CycleGAN models to learn the different styles present in the training data and randomly mix them together to create samples with novel style attributes to improve generalization. Experimental results on the PACS DG benchmark validate the proposed method.

arxiv情報

著者 Aristotelis Ballas,Christos Diou
発行日 2024-07-24 13:09:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク