要約
自己教師付き単眼式奥行き推定は、ロボット工学や自律走行への応用から、近年盛んに研究されているテーマである。最近の研究の多くは、アーキテクチャの複雑性を高めることで奥行き推定を改善することに焦点が当てられている。本論文では、モデルの複雑性を高めるのではなく、学習過程を改善することによっても、最先端の性能を達成できることを示す。具体的には、(i)学習時の最初の数エポックのみ不変姿勢損失を用いる、(ii)学習時に潜在的に動的な小さな物体を無視する、(iii)本当に動的な物体に対して物体姿勢を個別に推定する外観ベースのアプローチを採用する、ことを提案します。これらの簡略化により、GPUのメモリ使用量を29%削減し、質的にも量的にも改善された深度マップが得られることを実証する。
要約(オリジナル)
Self-supervised monocular depth estimation has been a subject of intense study in recent years, because of its applications in robotics and autonomous driving. Much of the recent work focuses on improving depth estimation by increasing architecture complexity. This paper shows that state-of-the-art performance can also be achieved by improving the learning process rather than increasing model complexity. More specifically, we propose (i) only using invariant pose loss for the first few epochs during training, (ii) disregarding small potentially dynamic objects when training, and (iii) employing an appearance-based approach to separately estimate object pose for truly dynamic objects. We demonstrate that these simplifications reduce GPU memory usage by 29% and result in qualitatively and quantitatively improved depth maps
arxiv情報
著者 | Kieran Saunders,George Vogiatzis,Luis J. Manso |
発行日 | 2022-06-08 10:42:31+00:00 |
arxivサイト | arxiv_id(pdf) |