AR-TTA: A Simple Method for Real-World Continual Test-Time Adaptation

要約

テスト時の適応は、ソース モデルが監視なしでデータ分布の変化に適応できるようにする有望な研究の方向性です。
しかし、現在の手法は通常、現実世界のシナリオを単純化したものにすぎないベンチマークに基づいて評価されます。
そこで、最近導入された自動運転用データセット、つまり CLAD-C と SHIFT を使用してテスト時間適応方法を検証することを提案します。
現在のテスト時の適応方法は、さまざまな程度のドメイン シフトを効果的に処理するのに苦労しており、多くの場合、ソース モデルのパフォーマンスを下回るパフォーマンスの低下を招くことが観察されています。
私たちは、問題の根本は、ソース モデルの知識を保存できず、動的に変化し、時間的に相関するデータ ストリームに適応できないことにあることに気付きました。
したがって、モデルの安定性を高めると同時に、ドメイン シフトの強度に基づいて動的適応を実行するために、小さなメモリ バッファーを組み込むことで、確立された自己トレーニング フレームワークを強化します。
AR-TTA と名付けられた提案手法は、合成ベンチマークとより現実世界のベンチマークの両方で既存のアプローチを上回り、さまざまな TTA シナリオにわたって堅牢性を示します。
コードは https://github.com/dmn-sjk/AR-TTA で入手できます。

要約(オリジナル)

Test-time adaptation is a promising research direction that allows the source model to adapt itself to changes in data distribution without any supervision. Yet, current methods are usually evaluated on benchmarks that are only a simplification of real-world scenarios. Hence, we propose to validate test-time adaptation methods using the recently introduced datasets for autonomous driving, namely CLAD-C and SHIFT. We observe that current test-time adaptation methods struggle to effectively handle varying degrees of domain shift, often resulting in degraded performance that falls below that of the source model. We noticed that the root of the problem lies in the inability to preserve the knowledge of the source model and adapt to dynamically changing, temporally correlated data streams. Therefore, we enhance the well-established self-training framework by incorporating a small memory buffer to increase model stability and at the same time perform dynamic adaptation based on the intensity of domain shift. The proposed method, named AR-TTA, outperforms existing approaches on both synthetic and more real-world benchmarks and shows robustness across a variety of TTA scenarios. The code is available at https://github.com/dmn-sjk/AR-TTA.

arxiv情報

著者 Damian Sójka,Sebastian Cygert,Bartłomiej Twardowski,Tomasz Trzciński
発行日 2024-10-14 15:32:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク