Stratified Domain Adaptation: A Progressive Self-Training Approach for Scene Text Recognition

要約

教師なしドメイン適応 (UDA) は、特にトレーニング データとテスト データが異なるドメインに存在する場合、シーン テキスト認識 (STR) でますます普及してきています。
ソース ドメインとターゲット ドメインの間に大きなギャップがある場合、既存の UDA アプローチの有効性が低下する傾向があります。
この問題に対処するには、徐々に移行するか、ドメイン間で移行することを段階的に学習することが重要な問題です。
この論文では、学習プロセスにおけるドメイン ギャップの段階的な拡大を調べる層化ドメイン適応 (StrDA) アプローチを紹介します。
目的は、トレーニング データをサブセットに分割して、段階的に自己トレーニングされたモデルが段階的な変化に適応できるようにすることです。
各データ サンプルのソース ドメインとターゲット ドメインの両方への近さを評価することにより、トレーニング データを階層化します。
我々は、ドメイン弁別器を使用してデータサンプルの分布外およびドメイン弁別レベルを推定するための新しい方法を提案します。
ベンチマーク シーン テキスト データセットに対する広範な実験により、私たちのアプローチがベースライン (ソースでトレーニングされた) STR モデルのパフォーマンスを大幅に向上させることが示されました。

要約(オリジナル)

Unsupervised domain adaptation (UDA) has become increasingly prevalent in scene text recognition (STR), especially where training and testing data reside in different domains. The efficacy of existing UDA approaches tends to degrade when there is a large gap between the source and target domains. To deal with this problem, gradually shifting or progressively learning to shift from domain to domain is the key issue. In this paper, we introduce the Stratified Domain Adaptation (StrDA) approach, which examines the gradual escalation of the domain gap for the learning process. The objective is to partition the training data into subsets so that the progressively self-trained model can adapt to gradual changes. We stratify the training data by evaluating the proximity of each data sample to both the source and target domains. We propose a novel method for employing domain discriminators to estimate the out-of-distribution and domain discriminative levels of data samples. Extensive experiments on benchmark scene-text datasets show that our approach significantly improves the performance of baseline (source-trained) STR models.

arxiv情報

著者 Kha Nhat Le,Hoang-Tuan Nguyen,Hung Tien Tran,Thanh Duc Ngo
発行日 2024-10-17 15:08:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク