Mitigating the Bias in the Model for Continual Test-Time Adaptation

要約

継続的テスト時間適応(CTA:Continual Test-Time Adaptation)は、絶えず変化するターゲットドメインに、事前に訓練されたモデルを適応させることを目的とした困難なタスクである。CTAの設定では、モデルはターゲットドメインがいつ変化するか分からないため、テスト時間中にストリーミング入力の分布が急激に変化することに直面する。重要な課題は、継続的に変化するターゲットドメインに対して、オンライン方式でモデルを適応させ続けることである。我々は、モデルが常にターゲットデータの連鎖分布に適応するため、非常に偏った予測を示すことを発見した。特定のクラスを他のクラスよりも頻繁に予測し、不正確な過信予測を行う。本稿では、CTAシナリオにおける性能を向上させるために、この問題を緩和する。バイアスの問題を緩和するために、信頼性の高いターゲットサンプルを用いてクラス毎の指数移動平均ターゲットプロトタイプを作成し、ターゲット特徴をクラス毎にクラスタリングするために利用する。さらに、ターゲット特徴を対応するソースプロトタイプに固定することで、ターゲット分布をソース分布に整合させることを目指す。広範な実験により、我々の提案手法は、既存のCTA手法の上に適用した場合に、大幅な適応時間オーバーヘッドを伴わずに、顕著な性能向上を達成する。

要約(オリジナル)

Continual Test-Time Adaptation (CTA) is a challenging task that aims to adapt a source pre-trained model to continually changing target domains. In the CTA setting, a model does not know when the target domain changes, thus facing a drastic change in the distribution of streaming inputs during the test-time. The key challenge is to keep adapting the model to the continually changing target domains in an online manner. We find that a model shows highly biased predictions as it constantly adapts to the chaining distribution of the target data. It predicts certain classes more often than other classes, making inaccurate over-confident predictions. This paper mitigates this issue to improve performance in the CTA scenario. To alleviate the bias issue, we make class-wise exponential moving average target prototypes with reliable target samples and exploit them to cluster the target features class-wisely. Moreover, we aim to align the target distributions to the source distribution by anchoring the target feature to its corresponding source prototype. With extensive experiments, our proposed method achieves noteworthy performance gain when applied on top of existing CTA methods without substantial adaptation time overhead.

arxiv情報

著者 Inseop Chung,Kyomin Hwang,Jayeon Yoo,Nojun Kwak
発行日 2024-03-02 23:37:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG パーマリンク