TTTFlow: Unsupervised Test-Time Training with Normalizing Flow

要約

画像分類のためのディープ ニューラル ネットワークの主な問題は、テスト時のドメイン変更に対する脆弱性です。
最近の方法では、テスト時間トレーニング (TTT) を使用してこの問題に対処することが提案されています。TTT では、2 ブランチ モデルをトレーニングして、主要な分類タスクと、テスト時間の適応を実行するために使用される自己教師付きタスクを学習します。
ただし、これらの手法では、ターゲット アプリケーションに固有のプロキシ タスクを定義する必要があります。
この制限に取り組むために、TTTFlow を提案します。TTTFlow は、正規化フローに基づく教師なしヘッドを使用して、潜在的な特徴の正規分布を学習し、テスト例のドメイン シフトを検出する Y 字型アーキテクチャです。
推論では、教師なしヘッドを固定したまま、正規化フローの対数尤度を最大化することにより、モデルをドメイン シフトされた例に適応させます。
私たちの結果は、私たちの方法が以前の研究に関して精度を大幅に改善できることを示しています。

要約(オリジナル)

A major problem of deep neural networks for image classification is their vulnerability to domain changes at test-time. Recent methods have proposed to address this problem with test-time training (TTT), where a two-branch model is trained to learn a main classification task and also a self-supervised task used to perform test-time adaptation. However, these techniques require defining a proxy task specific to the target application. To tackle this limitation, we propose TTTFlow: a Y-shaped architecture using an unsupervised head based on Normalizing Flows to learn the normal distribution of latent features and detect domain shifts in test examples. At inference, keeping the unsupervised head fixed, we adapt the model to domain-shifted examples by maximizing the log likelihood of the Normalizing Flow. Our results show that our method can significantly improve the accuracy with respect to previous works.

arxiv情報

著者 David Osowiechi,Gustavo A. Vargas Hakim,Mehrdad Noori,Milad Cheraghalikhani,Ismail Ben Ayed,Christian Desrosiers
発行日 2022-10-20 16:32:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク