要約
この論文では、以前に学習したものと \textit{compatible} な内部特徴表現モデルを学習するための新しい方法を提案します。
互換性のある機能により、古い学習機能と新しい学習機能を直接比較できるため、時間の経過とともにそれらを交換可能に使用できます。
これにより、表現モデルを順次アップグレードするときに、ギャラリー セット内の以前に表示されたすべての画像の新しい機能を抽出するビジュアル検索システムが不要になります。
非常に大規模なギャラリー セットやリアルタイム システム (顔認識システム、ソーシャル ネットワーク、生涯学習システム、ロボット工学、監視システムなど) の場合、通常、新しい特徴の抽出には非常にコストがかかるか、実行不可能です。
定常性による互換性のある表現 (CoReS) と呼ばれる私たちのアプローチは、以前に学習したモデルに依存することなく、学習した表現モデルに定常性を奨励することによって互換性を実現します。
定常性により、フィーチャの統計的プロパティがタイム シフトによって変化しないため、現在学習されているフィーチャが古いフィーチャと相互運用可能になります。
成長する大規模なトレーニング データセットにおける単一および順次のマルチモデル アップグレードを評価し、互換性のある機能を達成する上で、この方法が最先端技術を大幅に改善することを示します。
特に、CASIA-WebFace から取得したトレーニング データを使用して 10 回アップグレードし、Labeled Face in the Wild (LFW) で評価すると、互換性が達成される平均回数の測定で 49\% の増加が得られ、これは 544\% です。
以前の最先端技術よりも相対的に改善されています。
要約(オリジナル)
In this paper, we propose a novel method to learn internal feature representation models that are \textit{compatible} with previously learned ones. Compatible features enable for direct comparison of old and new learned features, allowing them to be used interchangeably over time. This eliminates the need for visual search systems to extract new features for all previously seen images in the gallery-set when sequentially upgrading the representation model. Extracting new features is typically quite expensive or infeasible in the case of very large gallery-sets and/or real time systems (i.e., face-recognition systems, social networks, life-long learning systems, robotics and surveillance systems). Our approach, called Compatible Representations via Stationarity (CoReS), achieves compatibility by encouraging stationarity to the learned representation model without relying on previously learned models. Stationarity allows features’ statistical properties not to change under time shift so that the current learned features are inter-operable with the old ones. We evaluate single and sequential multi-model upgrading in growing large-scale training datasets and we show that our method improves the state-of-the-art in achieving compatible features by a large margin. In particular, upgrading ten times with training data taken from CASIA-WebFace and evaluating in Labeled Face in the Wild (LFW), we obtain a 49\% increase in measuring the average number of times compatibility is achieved, which is a 544\% relative improvement over previous state-of-the-art.
arxiv情報
著者 | Niccolo Biondi,Federico Pernici,Matteo Bruni,Alberto Del Bimbo |
発行日 | 2023-03-21 16:36:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google