Probabilistic Test-Time Generalization by Variational Neighbor-Labeling

要約

このペーパーでは、モデルが目に見えないターゲット ドメインにデプロイされる前に、ソース ドメインのみでトレーニングされるドメインの一般化を目指しています。
ソース トレーニングとターゲット テストの厳密な分離に従いますが、推論中にラベルのないターゲット データ自体の価値を活用します。
私たちは 3 つの貢献を行っています。
まず、ソースでトレーニングされたモデルをテスト時にターゲット ドメインに一般化するために、ターゲット サンプルの確率的擬似ラベル付けを提案します。
擬似ラベルを分布としてモデル化することで、テスト時の一般化を変分推論問題として定式化し、一般化中の不確実性を考慮し、不正確な擬似ラベルの誤解を招く信号を軽減します。
次に、より堅牢な擬似ラベルを生成するために、隣接するターゲット サンプルの情報を組み込む変分隣接ラベルを学習します。
3 番目に、より代表的なターゲット情報を組み込み、より正確で堅牢な変分近傍ラベルを生成する能力を学習するために、トレーニング中にメタ一般化ステージを導入して一般化手順をシミュレートします。
広く使用されている 7 つのデータセットでの実験により、私たちの提案の利点、能力、有効性が実証されました。

要約(オリジナル)

This paper strives for domain generalization, where models are trained exclusively on source domains before being deployed on unseen target domains. We follow the strict separation of source training and target testing, but exploit the value of the unlabeled target data itself during inference. We make three contributions. First, we propose probabilistic pseudo-labeling of target samples to generalize the source-trained model to the target domain at test time. We formulate the generalization at test time as a variational inference problem, by modeling pseudo labels as distributions, to consider the uncertainty during generalization and alleviate the misleading signal of inaccurate pseudo labels. Second, we learn variational neighbor labels that incorporate the information of neighboring target samples to generate more robust pseudo labels. Third, to learn the ability to incorporate more representative target information and generate more precise and robust variational neighbor labels, we introduce a meta-generalization stage during training to simulate the generalization procedure. Experiments on seven widely-used datasets demonstrate the benefits, abilities, and effectiveness of our proposal.

arxiv情報

著者 Sameer Ambekar,Zehao Xiao,Jiayi Shen,Xiantong Zhen,Cees G. M. Snoek
発行日 2024-07-01 12:46:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク