要約
視覚的場所認識 (VPR) は、複雑な屋外環境内での移動ロボットの自律探索とナビゲーションにおいて極めて重要な役割を果たします。
カメラセンサーは費用対効果が高く導入が簡単ですが、照明や天候の変化に敏感であり、わずかな画像の変更でも VPR の効率と精度に大きな影響を与える可能性があります。
既存の方法では、強力かつ大規模なネットワークを活用することでこの問題を解決しており、計算リソースの大幅な消費につながります。
この論文では、TSCM と呼ばれる高性能の教師と軽量の生徒の蒸留フレームワークを提案します。
これは、私たちが考案したクロスメトリック知識の蒸留を活用して、教師モデルと生徒モデル間のパフォーマンスの差を縮め、導入中の計算負荷を最小限に抑えながら優れたパフォーマンスを維持します。
Pittsburgh30k と Pittsburgh250k という大規模なデータセットに対して包括的な評価を行います。
実験結果は、認識精度とモデルパラメータ効率の点で、ベースラインモデルよりも私たちの方法が優れていることを示しています。
さらに、私たちのアブレーション研究は、提案された知識蒸留技術が他の対応物を上回ることを示しています。
私たちのメソッドのコードは https://github.com/nubot-nudt/TSCM で公開されています。
要約(オリジナル)
Visual place recognition (VPR) plays a pivotal role in autonomous exploration and navigation of mobile robots within complex outdoor environments. While cost-effective and easily deployed, camera sensors are sensitive to lighting and weather changes, and even slight image alterations can greatly affect VPR efficiency and precision. Existing methods overcome this by exploiting powerful yet large networks, leading to significant consumption of computational resources. In this paper, we propose a high-performance teacher and lightweight student distillation framework called TSCM. It exploits our devised cross-metric knowledge distillation to narrow the performance gap between the teacher and student models, maintaining superior performance while enabling minimal computational load during deployment. We conduct comprehensive evaluations on large-scale datasets, namely Pittsburgh30k and Pittsburgh250k. Experimental results demonstrate the superiority of our method over baseline models in terms of recognition accuracy and model parameter efficiency. Moreover, our ablation studies show that the proposed knowledge distillation technique surpasses other counterparts. The code of our method has been released at https://github.com/nubot-nudt/TSCM.
arxiv情報
著者 | Yehui Shen,Mingmin Liu,Huimin Lu,Xieyuanli Chen |
発行日 | 2025-01-08 14:12:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google