Knowledge Distillation for Object Detection: from generic to remote sensing datasets

要約

知識の蒸留は、よく知られたモデル圧縮技術であり、コンピューター ビジョンとリモート センシング コミュニティの両方で活発な研究分野です。
この論文では、Pascal VOC などの汎用コンピュータ ビジョン データセットに基づいて独自に開発された、さまざまな既製の物体検出知識抽出手法をリモート センシングのコンテキストで評価します。
特に、ロジット模倣アプローチと特徴模倣アプローチの両方をカバーする方法は、xView や VEDAI データセットなどのよく知られたベンチマークを使用した車両検出に適用されます。
メソッドの相対的なパフォーマンスと相互関係を比較するために、広範な実験が実行されます。
実験結果は大きな変動を示しており、リモート センシング データセットに対する結果の集計と相互検証の重要性が確認されています。

要約(オリジナル)

Knowledge distillation, a well-known model compression technique, is an active research area in both computer vision and remote sensing communities. In this paper, we evaluate in a remote sensing context various off-the-shelf object detection knowledge distillation methods which have been originally developed on generic computer vision datasets such as Pascal VOC. In particular, methods covering both logit mimicking and feature imitation approaches are applied for vehicle detection using the well-known benchmarks such as xView and VEDAI datasets. Extensive experiments are performed to compare the relative performance and interrelationships of the methods. Experimental results show high variations and confirm the importance of result aggregation and cross validation on remote sensing datasets.

arxiv情報

著者 Hoàng-Ân Lê,Minh-Tan Pham
発行日 2023-07-18 13:49:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク