要約
現在のディープ モデルは、オブジェクトの分類とローカリゼーションの点で優れたオブジェクト検出を提供します。
ただし、入力画像の視覚的コンテキストでの他の視覚オブジェクトに対するオブジェクトの回転の推定には、回転注釈付きのオブジェクト データセットが利用できないため、まだ深い研究が不足しています。
このホワイト ペーパーでは、これら 2 つの課題に取り組み、駐輪エリアに対する駐輪自転車の回転推定を解決します。
まず、3D グラフィックスの機能を活用して、カメラに依存しない十分に注釈が付けられた合成自転車回転データセット (SynthBRSet) を構築します。
次に、オブジェクト検出タスクを拡張して、2 つの軸で自転車の回転をさらに回帰させることにより、オブジェクトからスポットへの回転推定器 (OSRE) を提案します。
私たちのモデルは純粋に合成データでトレーニングされているため、実際の画像に展開するときに画像の平滑化手法を採用しています。
提案された OSRE は、有望な結果を提供する合成および実世界のデータで評価されます。
私たちのデータとコードは、\href{https://github.com/saghiralfasly/OSRE-Project}{https://github.com/saghiralfasly/OSRE-Project} で入手できます。
要約(オリジナル)
Current deep models provide remarkable object detection in terms of object classification and localization. However, estimating object rotation with respect to other visual objects in the visual context of an input image still lacks deep studies due to the unavailability of object datasets with rotation annotations. This paper tackles these two challenges to solve the rotation estimation of a parked bike with respect to its parking area. First, we leverage the power of 3D graphics to build a camera-agnostic well-annotated Synthetic Bike Rotation Dataset (SynthBRSet). Then, we propose an object-to-spot rotation estimator (OSRE) by extending the object detection task to further regress the bike rotations in two axes. Since our model is purely trained on synthetic data, we adopt image smoothing techniques when deploying it on real-world images. The proposed OSRE is evaluated on synthetic and real-world data providing promising results. Our data and code are available at \href{https://github.com/saghiralfasly/OSRE-Project}{https://github.com/saghiralfasly/OSRE-Project}.
arxiv情報
著者 | Saghir Alfasly,Zaid Al-huda,Saifullah Bello,Ahmed Elazab,Jian Lu,Chen Xu |
発行日 | 2023-03-01 18:34:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google