要約
タイトル:OriCon3D:方向と信頼性を利用した効果的な3Dオブジェクト検出
要約:
– 単一の画像から3Dオブジェクトを検出し、その位置を推定する方法を紹介する。
– 当研究では、より正確な方法を提供するために、類似の最新技術を改善するアプローチを採用する。
– 先行研究とは異なり、我々のアプローチは、Deep Convolutional Neural Network(DCNN)を使用して、オブジェクトの共通の3D特性を最初に推定する。
– この特性の推定値を2Dバウンディングボックスによる幾何制約と組み合わせ、完全な3Dバウンディングボックスを生成する。
– ネットワークの最初の出力は、離散 – 連続損失[1]を使用して3Dオブジェクトの方向を推定する。
– 2番目の出力は、最小の分散で3Dオブジェクトの寸法を予測する。
– このネットワークの出力値を2Dバウンディングボックスの幾何制約と組み合わせることで、KITTI 3D検出ベンチマーク[2]において、比較的正確に3Dオブジェクト位置を決定することができる。
– 先行研究に比べて、改良されたアルゴリズムにより高い精度を達成し、軽量な特徴抽出器とカスタムマルチビンアーキテクチャの拡張を提供する。
要約(オリジナル)
We introduce a technique for detecting 3D objects and estimating their position from a single image. Our method is built on top of a similar state-of-the-art technique [1], but with improved accuracy. The approach followed in this research first estimates common 3D properties of an object using a Deep Convolutional Neural Network (DCNN), contrary to other frameworks that only leverage centre-point predictions. We then combine these estimates with geometric constraints provided by a 2D bounding box to produce a complete 3D bounding box. The first output of our network estimates the 3D object orientation using a discrete-continuous loss [1]. The second output predicts the 3D object dimensions with minimal variance. Here we also present our extensions by augmenting light-weight feature extractors and a customized multibin architecture. By combining these estimates with the geometric constraints of the 2D bounding box, we can accurately (or comparatively) determine the 3D object pose better than our baseline [1] on the KITTI 3D detection benchmark [2].
arxiv情報
著者 | Dhyey Manish Rajani,Rahul Kashyap Swayampakula,Surya Pratap Singh |
発行日 | 2023-04-27 19:52:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI