Domain Generalization In Robust Invariant Representation

要約

タイトル:堅牢な不変表現の領域汎化

要約:

– 一般的な変換に不変な表現を学習する非教師ありアプローチは、物体認識に頻繁に使用されます。
– 不変性を学習することで、モデルはより堅牢で実世界のシナリオでの使用が可能になります。
– オブジェクトの本質的な特性を変えないデータ変換が認識課題の多くの複雑さを引き起こすため、これらの変換に不変なモデルは、必要とされるトレーニングデータの量を減らし、モデルの効率性を高め、トレーニングを簡素化するのに役立ちます。
– 本論文では、既知の領域で特定の変換に対して不変なモデル表現が、以前に見たことのない領域でも不変性を維持するかどうかの汎化を調査しようとしています。
– 広範な実験により、不変モデルが構造のない潜在表現を学習し、分布のシフトに堅牢であることを示し、資源制約のある訓練にとって望ましい特性である不変性を決定的な研究として提示しています。

要約(オリジナル)

Unsupervised approaches for learning representations invariant to common transformations are used quite often for object recognition. Learning invariances makes models more robust and practical to use in real-world scenarios. Since data transformations that do not change the intrinsic properties of the object cause the majority of the complexity in recognition tasks, models that are invariant to these transformations help reduce the amount of training data required. This further increases the model’s efficiency and simplifies training. In this paper, we investigate the generalization of invariant representations on out-of-distribution data and try to answer the question: Do model representations invariant to some transformations in a particular seen domain also remain invariant in previously unseen domains? Through extensive experiments, we demonstrate that the invariant model learns unstructured latent representations that are robust to distribution shifts, thus making invariance a desirable property for training in resource-constrained settings.

arxiv情報

著者 Gauri Gupta,Ritvik Kapila,Keshav Gupta,Ramesh Raskar
発行日 2023-04-07 00:58:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.LG パーマリンク