要約
ゲージ データを手動で読み取って記録するのは時間効率が悪く、利用可能なゲージの数に応じて労力が増加します。
アナログ ゲージの読み取りを自動化するコンピューター ビジョン パイプラインを紹介します。
アナログ ゲージの主要な構造コンポーネントを識別し、角度の読み取り値を出力する 2 段階の CNN パイプラインを提案します。
私たちのアプローチのトレーニングを容易にするために、合成データセットが生成され、対応する注釈付きの現実的なアナログ ゲージのセットが取得されます。
私たちの提案を検証するために、手動で厳選された 4.813 枚の画像を含む追加の実世界データセットが収集されました。
最先端の方法論と比較した場合、私たちの方法は平均誤差が 4.55 という大幅な改善を示しており、これは相対的に 52% の改善です。
このプロジェクトのリソースは、https://github.com/fuankarion/automatic-gauge-reading で利用可能になります。
要約(オリジナル)
Manually reading and logging gauge data is time inefficient, and the effort increases according to the number of gauges available. We present a computer vision pipeline that automates the reading of analog gauges. We propose a two-stage CNN pipeline that identifies the key structural components of an analog gauge and outputs an angular reading. To facilitate the training of our approach, a synthetic dataset is generated thus obtaining a set of realistic analog gauges with their corresponding annotation. To validate our proposal, an additional real-world dataset was collected with 4.813 manually curated images. When compared against state-of-the-art methodologies, our method shows a significant improvement of 4.55 in the average error, which is a 52% relative improvement. The resources for this project will be made available at: https://github.com/fuankarion/automatic-gauge-reading.
arxiv情報
著者 | Juan Leon-Alcazar,Yazeed Alnumay,Cheng Zheng,Hassane Trigui,Sahejad Patel,Bernard Ghanem |
発行日 | 2023-08-28 13:49:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google