Positive Pair Distillation Considered Harmful: Continual Meta Metric Learning for Lifelong Object Re-Identification

要約

生涯オブジェクト再識別は、再識別タスクのストリームから漸進的に学習する。その目的は、すべてのタスクに適用可能で、かつ以前に見たことのない再同定タスクに汎化できる表現を学習することである。主な課題は、推論時に表現が以前に見たことのないアイデンティティに汎化する必要があることである。この問題を解決するために、我々は生涯対象の再同定に継続的なメタメトリック学習を適用する。以前のタスクの忘却を防ぐために、我々は知識の蒸留を用い、正と負のペアの役割を探索する。蒸留とメトリックの損失は拮抗するという我々の観察に基づき、我々はモデルの更新を強固にするために蒸留から正のペアを取り除くことを提案する。本手法はDistillation without Positive Pairs (DwoPP)と呼ばれ、人物と車両の再識別データセットに対する大規模なドメイン内実験と、LReIDベンチマークに対するドメイン間実験により評価される。我々の実験は、DwoPPが最先端技術を大幅に上回ることを実証している。コードはこちら: https://github.com/wangkai930418/DwoPP_code

要約(オリジナル)

Lifelong object re-identification incrementally learns from a stream of re-identification tasks. The objective is to learn a representation that can be applied to all tasks and that generalizes to previously unseen re-identification tasks. The main challenge is that at inference time the representation must generalize to previously unseen identities. To address this problem, we apply continual meta metric learning to lifelong object re-identification. To prevent forgetting of previous tasks, we use knowledge distillation and explore the roles of positive and negative pairs. Based on our observation that the distillation and metric losses are antagonistic, we propose to remove positive pairs from distillation to robustify model updates. Our method, called Distillation without Positive Pairs (DwoPP), is evaluated on extensive intra-domain experiments on person and vehicle re-identification datasets, as well as inter-domain experiments on the LReID benchmark. Our experiments demonstrate that DwoPP significantly outperforms the state-of-the-art. The code is here: https://github.com/wangkai930418/DwoPP_code

arxiv情報

著者 Kai Wang,Chenshen Wu,Andy Bagdanov,Xialei Liu,Shiqi Yang,Shangling Jui,Joost van de Weijer
発行日 2022-10-04 13:26:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク