DPPD: Deformable Polar Polygon Object Detection

要約

タイトル:DPPD: Deformable Polar Polygon Object Detection
要約:

– 通常の物体検出方法は四角いバウンディングボックスを出力し、実際の物体の形状を正確に説明することができない。
– インスタンスセグメンテーション方法はピクセルレベルのラベルを出力し、リアルタイムアプリケーションには計算コストが高い。
– 多角形表現が必要であり、正確な形状合わせを実現しながら、低い計算コストを保持すべきである。
– ノベルなDeformable Polar Polygon Object Detection(DPPD)方法を開発し、多角形形状で物体を検出する。
– 特に、各物体について、ポーラー座標系で角度と距離のペアで表される柔軟な頂点の疎なセットを予測し、多角形を構成する。
– トレーニングを可能にするために、グラウンドトゥルースと予測された多角形は、等間隔のレイポイントを持つ同じ数の頂点に密にリサンプリングされる。
– リサンプリング操作は全微分可能であり、勾配逆伝播が可能である。
– 疎な多角形の予測により高速なランタイム推論が実現され、密なリサンプリングによりネットワークは高い精度で物体の形状を学習できる。
– 多角形検出ヘッドはアンカーフリーおよびNMSフリーのネットワークアーキテクチャの上に確立されている。
– DPPDは、交通標識、横断歩道、車両、および歩行者オブジェクトなど、自動運転のさまざまな物体検出タスクで成功裏に実証されている。

要約(オリジナル)

Regular object detection methods output rectangle bounding boxes, which are unable to accurately describe the actual object shapes. Instance segmentation methods output pixel-level labels, which are computationally expensive for real-time applications. Therefore, a polygon representation is needed to achieve precise shape alignment, while retaining low computation cost. We develop a novel Deformable Polar Polygon Object Detection method (DPPD) to detect objects in polygon shapes. In particular, our network predicts, for each object, a sparse set of flexible vertices to construct the polygon, where each vertex is represented by a pair of angle and distance in the Polar coordinate system. To enable training, both ground truth and predicted polygons are densely resampled to have the same number of vertices with equal-spaced raypoints. The resampling operation is fully differentable, allowing gradient back-propagation. Sparse polygon predicton ensures high-speed runtime inference while dense resampling allows the network to learn object shapes with high precision. The polygon detection head is established on top of an anchor-free and NMS-free network architecture. DPPD has been demonstrated successfully in various object detection tasks for autonomous driving such as traffic-sign, crosswalk, vehicle and pedestrian objects.

arxiv情報

著者 Yang Zheng,Oles Andrienko,Yonglei Zhao,Minwoo Park,Trung Pham
発行日 2023-04-05 06:43:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク