要約
道路障害物検出技術はますます効果的になってきていますが、実際には、車両までの距離が増すにつれて障害物の見かけのサイズが小さくなるという事実は一般に無視されています。
この論文では、すべての画像位置における仮想オブジェクトの見かけのサイズをエンコードするスケール マップを計算することで、これを説明します。
次に、この遠近マップを利用して、(i) サイズが遠近短縮に対応する合成オブジェクトを道路に注入することによってトレーニング データを生成します。
(ii) 障害物検出器をガイドするために、検出ネットワークのデコード部分に視点情報を組み込む。
標準ベンチマークの結果は、これら 2 つの戦略を組み合わせることで障害物検出パフォーマンスが大幅に向上し、インスタンス レベルの障害物検出に関して、当社のアプローチが常に最先端の方法を上回るパフォーマンスを実現できることを示しています。
要約(オリジナル)
While road obstacle detection techniques have become increasingly effective, they typically ignore the fact that, in practice, the apparent size of the obstacles decreases as their distance to the vehicle increases. In this paper, we account for this by computing a scale map encoding the apparent size of a hypothetical object at every image location. We then leverage this perspective map to (i) generate training data by injecting onto the road synthetic objects whose size corresponds to the perspective foreshortening; and (ii) incorporate perspective information in the decoding part of the detection network to guide the obstacle detector. Our results on standard benchmarks show that, together, these two strategies significantly boost the obstacle detection performance, allowing our approach to consistently outperform state-of-the-art methods in terms of instance-level obstacle detection.
arxiv情報
著者 | Krzysztof Lis,Sina Honari,Pascal Fua,Mathieu Salzmann |
発行日 | 2023-06-19 18:29:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google