要約
自己監視型の単眼深度推定は、ロボット工学や自動運転への応用のため、近年、熱心な研究の対象となっています。
最近の作業の多くは、アーキテクチャの複雑さを増すことによって深度推定を改善することに焦点を当てています。
このホワイトペーパーでは、モデルの複雑さを増すのではなく、学習プロセスを改善することで、最先端のパフォーマンスを実現できることを示しています。
より具体的には、(i)トレーニング中の最初の数エポックで不変のポーズ損失のみを使用し、(ii)トレーニング時に潜在的に動的な小さなオブジェクトを無視し、(iii)外観ベースのアプローチを使用してオブジェクトのポーズを個別に推定して真に動的にすることを提案します。
オブジェクト。
これらの簡略化により、GPUメモリの使用量が29%削減され、質的および量的に深度マップが改善されることを示します。
コードはhttps://github.com/kieran514/Dyna-DMで入手できます。
要約(オリジナル)
Self-supervised monocular depth estimation has been a subject of intense study in recent years, because of its applications in robotics and autonomous driving. Much of the recent work focuses on improving depth estimation by increasing architecture complexity. This paper shows that state-of-the-art performance can also be achieved by improving the learning process rather than increasing model complexity. More specifically, we propose (i) only using invariant pose loss for the first few epochs during training, (ii) disregarding small potentially dynamic objects when training, and (iii) employing an appearance-based approach to separately estimate object pose for truly dynamic objects. We demonstrate that these simplifications reduce GPU memory usage by 29% and result in qualitatively and quantitatively improved depth maps. The code is available at https://github.com/kieran514/Dyna-DM.
arxiv情報
著者 | Kieran Saunders,George Vogiatzis,Luis J. Manso |
発行日 | 2022-06-23 13:27:02+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google