Multimodal Object Detection using Depth and Image Data for Manufacturing Parts

要約

製造業では、さまざまな種類の製造部品やコンポーネントを正確にピッキングして取り扱うため、信頼性の高い物体検出方法が必要です。
従来の物体検出方法は、カメラからの 2D 画像のみ、または LIDAR または同様の 3D センサーからの 3D データを利用します。
ただし、これらのセンサーにはそれぞれ弱点と制限があります。
カメラには奥行き認識がなく、3D センサーは通常、色情報を伝えません。
これらの弱点は、工業生産システムの信頼性と堅牢性を損なう可能性があります。
これらの課題に対処するために、この研究では、赤、緑、青 (RGB) カメラと 3D 点群センサーを組み合わせたマルチセンサー システムを提案しています。
2 つのセンサーは、2 つのハードウェア デバイスから取得したマルチモーダル データを正確に調整するために調整されています。
RGB データと深度データの両方を処理する、新しいマルチモーダル物体検出方法が開発されました。
この物体検出器は、もともとカメラ画像のみを処理するように設計された Faster R-CNN ベースラインに基づいています。
結果は、マルチモーダル モデルが、確立された物体検出メトリクスに基づいて、深度のみおよび RGB のみのベースラインよりも大幅に優れていることを示しています。
より具体的には、マルチモーダル モデルは、RGB のみのベースラインと比較して、mAP を 13% 改善し、平均精度を 11.8% 向上させます。
深さのみのベースラインと比較して、mAP が 78% 向上し、平均精度が 57% 向上します。
したがって、この方法により、スマート製造アプリケーションでのより信頼性が高く堅牢な物体検出が容易になります。

要約(オリジナル)

Manufacturing requires reliable object detection methods for precise picking and handling of diverse types of manufacturing parts and components. Traditional object detection methods utilize either only 2D images from cameras or 3D data from lidars or similar 3D sensors. However, each of these sensors have weaknesses and limitations. Cameras do not have depth perception and 3D sensors typically do not carry color information. These weaknesses can undermine the reliability and robustness of industrial manufacturing systems. To address these challenges, this work proposes a multi-sensor system combining an red-green-blue (RGB) camera and a 3D point cloud sensor. The two sensors are calibrated for precise alignment of the multimodal data captured from the two hardware devices. A novel multimodal object detection method is developed to process both RGB and depth data. This object detector is based on the Faster R-CNN baseline that was originally designed to process only camera images. The results show that the multimodal model significantly outperforms the depth-only and RGB-only baselines on established object detection metrics. More specifically, the multimodal model improves mAP by 13% and raises Mean Precision by 11.8% in comparison to the RGB-only baseline. Compared to the depth-only baseline, it improves mAP by 78% and raises Mean Precision by 57%. Hence, this method facilitates more reliable and robust object detection in service to smart manufacturing applications.

arxiv情報

著者 Nazanin Mahjourian,Vinh Nguyen
発行日 2024-11-13 22:43:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO パーマリンク