ReservoirTTA: Prolonged Test-time Adaptation for Evolving and Recurring Domains

要約

このペーパーでは、ドメインが徐々に再発または進化する場合を含む、テストドメインが時間とともに継続的にシフトするシナリオで、長時間のテスト時間適応(TTA)のために設計された新しいプラグインフレームワークであるReservoirttaを紹介します。
そのコアでは、Reservoirttaは、着信サンプルのスタイル上のオンラインクラスタリングを介してオンラインクラスタリングを介して新しいドメインを検出し、各サンプルを適切な専門モデルにルーティングし、それによってドメイン固有の適応を可能にするドメイン特別なモデルのリザーバー(適応テスト時間モデルアンサンブル)を維持しています。
このマルチモデル戦略は、壊滅的な忘却、ドメイン間干渉、エラーの蓄積など、単一モデル適応の重要な制限を克服し、持続的な非定常試験分布の堅牢で安定したパフォーマンスを確保します。
理論分析では、パラメーターの分散を結合し、モデルの崩壊を防ぐ重要なコンポーネントが明らかになり、プラグインTTAモジュールは、以前に遭遇したドメインの壊滅的な忘却を緩和します。
Imagenet-CやCIFAR-10/100-Cを含む分類腐敗ベンチマークの広範な実験、およびCityscapes $ \ rightArrow $ ACDCセマンティックセグメンテーションタスク、繰り返し進化するドメインのシフトをカバーすることで、リザーブアートが適応を大幅に改善し、国営シフトを廃止するための安定したパフォーマンスを維持することを実証します。
方法。

要約(オリジナル)

This paper introduces ReservoirTTA, a novel plug-in framework designed for prolonged test-time adaptation (TTA) in scenarios where the test domain continuously shifts over time, including cases where domains recur or evolve gradually. At its core, ReservoirTTA maintains a reservoir of domain-specialized models — an adaptive test-time model ensemble — that both detects new domains via online clustering over style features of incoming samples and routes each sample to the appropriate specialized model, and thereby enables domain-specific adaptation. This multi-model strategy overcomes key limitations of single model adaptation, such as catastrophic forgetting, inter-domain interference, and error accumulation, ensuring robust and stable performance on sustained non-stationary test distributions. Our theoretical analysis reveals key components that bound parameter variance and prevent model collapse, while our plug-in TTA module mitigates catastrophic forgetting of previously encountered domains. Extensive experiments on the classification corruption benchmarks, including ImageNet-C and CIFAR-10/100-C, as well as the Cityscapes$\rightarrow$ACDC semantic segmentation task, covering recurring and continuously evolving domain shifts, demonstrate that ReservoirTTA significantly improves adaptation accuracy and maintains stable performance across prolonged, recurring shifts, outperforming state-of-the-art methods.

arxiv情報

著者 Guillaume Vray,Devavrat Tomar,Xufeng Gao,Jean-Philippe Thiran,Evan Shelhamer,Behzad Bozorgtabar
発行日 2025-05-20 15:39:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク