LostNet: A smart way for lost and find

要約

近年、都市部では人口の増加に伴い、交通機関やレストランなど公共の場での落し物が多発しています。iPhoneを探す」のようなサービスでは、紛失した電子機器を簡単に特定することができますが、より価値のある物はインテリジェントな方法で追跡することができないため、管理者がタイムリーに多数の遺失物を取り戻すことは不可能です。本研究では、所有者から提供された過去の遺失物画像と、登録された遺失物を受け取った際に撮影した写真を比較することで、検索の複雑さを大幅に軽減する方法を提案します。本研究では、主にMobileNetv2の微調整手法とCBAM Attentionを組み合わせた写真照合ネットワークを設計し、インターネットの枠組みを利用して、オンライン遺失物画像識別システムを開発する予定です。我々の実装では、665.12M GLFOPsと3.5Mトレーニングパラメータのみを用いて、96.8%のテスト精度を得ることができました。また、練習用の画像を認識することができ、通常のノートパソコンで動作させることができる。

要約(オリジナル)

Due to the enormous population growth of cities in recent years, objects are frequently lost and unclaimed on public transportation, in restaurants, or any other public areas. While services like Find My iPhone can easily identify lost electronic devices, more valuable objects cannot be tracked in an intelligent manner, making it impossible for administrators to reclaim a large number of lost and found items in a timely manner. We present a method that significantly reduces the complexity of searching by comparing previous images of lost and recovered things provided by the owner with photos taken when registered lost and found items are received. In this research, we will primarily design a photo matching network by combining the fine-tuning method of MobileNetv2 with CBAM Attention and using the Internet framework to develop an online lost and found image identification system. Our implementation gets a testing accuracy of 96.8% using only 665.12M GLFOPs and 3.5M training parameters. It can recognize practice images and can be run on a regular laptop.

arxiv情報

著者 Meihua Zhou,Ivan Fung,Li Yang,Nan Wan,Keke Di,Tingting Wang
発行日 2023-01-05 19:39:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, eess.IV パーマリンク