Optimal transport meets noisy label robust loss and MixUp regularization for domain adaptation

要約

コンピュータビジョンでは、ドメインシフトに直面するのが一般的です。つまり、同じクラスであるが取得条件が異なる画像です。
ドメインアダプテーション(DA)では、ソースラベル付き画像を使用してラベルなしターゲット画像を分類したいと考えています。
残念ながら、ソーストレーニングセットでトレーニングされたディープニューラルネットワークは、トレーニングドメインに属していないターゲット画像ではパフォーマンスが低下します。
これらのパフォーマンスを改善するための1つの戦略は、最適なトランスポート(OT)を使用して、埋め込みスペース内のソースとターゲットの画像分布を調整することです。
ただし、OTは負の転送を引き起こす可能性があります。つまり、サンプルを異なるラベルで整列させるため、特にドメイン間のラベルシフトが存在する場合に過剰適合につながります。
この作業では、ターゲット画像へのノイズの多いラベル割り当てとして説明することにより、ネガティブアラインメントを軽減します。
次に、適切な正則化によってその影響を軽減します。
ドメイン適応のパフォーマンスを向上させるために、MixUp正則化\citep{zhang2018mixup}をノイズの多いラベルに対してロバストな損失と結合することを提案します。
広範なアブレーション研究で、2つの技術の組み合わせがパフォーマンスの向上を達成するために重要であることを示しています。
最後に、\ textsc {mixunbot}と呼ばれるメソッドを、いくつかのベンチマークと実際のDAの問題について評価します。

要約(オリジナル)

It is common in computer vision to be confronted with domain shift: images which have the same class but different acquisition conditions. In domain adaptation (DA), one wants to classify unlabeled target images using source labeled images. Unfortunately, deep neural networks trained on a source training set perform poorly on target images which do not belong to the training domain. One strategy to improve these performances is to align the source and target image distributions in an embedded space using optimal transport (OT). However OT can cause negative transfer, i.e. aligning samples with different labels, which leads to overfitting especially in the presence of label shift between domains. In this work, we mitigate negative alignment by explaining it as a noisy label assignment to target images. We then mitigate its effect by appropriate regularization. We propose to couple the MixUp regularization \citep{zhang2018mixup} with a loss that is robust to noisy labels in order to improve domain adaptation performance. We show in an extensive ablation study that a combination of the two techniques is critical to achieve improved performance. Finally, we evaluate our method, called \textsc{mixunbot}, on several benchmarks and real-world DA problems.

arxiv情報

著者 Kilian Fatras,Hiroki Naganuma,Ioannis Mitliagkas
発行日 2022-06-22 15:40:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, stat.ML パーマリンク