AGO-Net: Association-Guided 3D Point Cloud Object Detection Network

要約

人間の脳は物体を簡単に認識して位置を特定できますが、LiDAR 点群に基づく現在の 3D オブジェクト検出方法では、遮蔽されたオブジェクトや遠くにあるオブジェクトを検出するパフォーマンスが依然として劣っていると報告されています。
センサーまでの距離。
したがって、このような点群に対してロバストなフィーチャ表現を設計することが重要です。
人間の連想認識に着想を得て、ドメイン適応を介してオブジェクトの無傷の特徴を関連付ける新しい 3D 検出フレームワークを提案します。
機能が次善の表現を持つ実際のシーンから派生する知覚ドメインと、豊富な詳細情報を持つ非オクルージョンオブジェクトで構成される拡張シーンから機能が抽出される概念ドメインとの間のギャップを埋めます。
外部データセットなしで概念的なシーンを構築するための実行可能な方法が調査されます。
さらに、より有益な領域の機能適応を適応的に強化する注意ベースの再重み付けモジュールを導入します。
ネットワークの機能強化機能は、さまざまな 3D 検出フレームワークでのプラグアンドプレイである推論中に余分なコストを導入することなく活用されます。
精度と速度の両方で、KITTI 3D 検出ベンチマークで新しい最先端のパフォーマンスを実現します。
nuScenes と Waymo データセットでの実験でも、この方法の汎用性が検証されています。

要約(オリジナル)

The human brain can effortlessly recognize and localize objects, whereas current 3D object detection methods based on LiDAR point clouds still report inferior performance for detecting occluded and distant objects: the point cloud appearance varies greatly due to occlusion, and has inherent variance in point densities along the distance to sensors. Therefore, designing feature representations robust to such point clouds is critical. Inspired by human associative recognition, we propose a novel 3D detection framework that associates intact features for objects via domain adaptation. We bridge the gap between the perceptual domain, where features are derived from real scenes with sub-optimal representations, and the conceptual domain, where features are extracted from augmented scenes that consist of non-occlusion objects with rich detailed information. A feasible method is investigated to construct conceptual scenes without external datasets. We further introduce an attention-based re-weighting module that adaptively strengthens the feature adaptation of more informative regions. The network’s feature enhancement ability is exploited without introducing extra cost during inference, which is plug-and-play in various 3D detection frameworks. We achieve new state-of-the-art performance on the KITTI 3D detection benchmark in both accuracy and speed. Experiments on nuScenes and Waymo datasets also validate the versatility of our method.

arxiv情報

著者 Liang Du,Xiaoqing Ye,Xiao Tan,Edward Johns,Bo Chen,Errui Ding,Xiangyang Xue,Jianfeng Feng
発行日 2022-08-24 16:54:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク