Leveraging Model Fusion for Improved License Plate Recognition

要約

ナンバー プレート認識 (LPR) は、料金徴収、駐車管理、交通法執行などのさまざまなアプリケーションで重要な役割を果たします。
LPR は深層学習の開発を通じて大幅な進歩を遂げてきましたが、複数の認識モデルからの出力を融合することによって結果が改善される可能性を探る研究は著しく不足しています。
この研究は、最も信頼性の高い予測を選択する、または多数決に基づく戦略を採用するなど、直接的なアプローチを使用して最大 12 個の異なるモデルの組み合わせを調査することで、このギャップを埋めることを目的としています。
私たちの実験は広範囲のデータセットを網羅しており、データセット内およびデータセット間の設定の両方で融合アプローチの大きな利点が明らかになりました。
基本的に、複数のモデルを融合すると、特定のデータセット/シナリオで標準以下のパフォーマンスが得られる可能性が大幅に減少します。
また、速度に基づいてモデルを組み合わせることが魅力的なアプローチであることもわかりました。
特に、認識タスクが過度ではないものの、ある程度の追加時間を許容できるアプリケーションの場合、4 ~ 6 個のモデルを組み合わせることが効果的な戦略となります。
これらのモデルは個々では最も正確ではないかもしれませんが、それらを融合することで精度と速度の最適なバランスが保たれます。

要約(オリジナル)

License Plate Recognition (LPR) plays a critical role in various applications, such as toll collection, parking management, and traffic law enforcement. Although LPR has witnessed significant advancements through the development of deep learning, there has been a noticeable lack of studies exploring the potential improvements in results by fusing the outputs from multiple recognition models. This research aims to fill this gap by investigating the combination of up to 12 different models using straightforward approaches, such as selecting the most confident prediction or employing majority vote-based strategies. Our experiments encompass a wide range of datasets, revealing substantial benefits of fusion approaches in both intra- and cross-dataset setups. Essentially, fusing multiple models reduces considerably the likelihood of obtaining subpar performance on a particular dataset/scenario. We also found that combining models based on their speed is an appealing approach. Specifically, for applications where the recognition task can tolerate some additional time, though not excessively, an effective strategy is to combine 4-6 models. These models may not be the most accurate individually, but their fusion strikes an optimal balance between accuracy and speed.

arxiv情報

著者 Rayson Laroca,Luiz A. Zanlorensi,Valter Estevam,Rodrigo Minetto,David Menotti
発行日 2023-09-08 13:55:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク