Weakly-Supervised Optical Flow Estimation for Time-of-Flight

要約

間接飛行時間型 (iToF) カメラは広く普及しているタイプの 3D センサーであり、複数のキャプチャを実行して、キャプチャされたシーンの深度値を取得します。
iToF 深度を修正する最近のアプローチは、マルチパス干渉とセンサー ノイズを除去する際に高いパフォーマンスを達成しますが、モーション アーティファクトに対処するための研究はほとんど行われていません。
この作業では、グラウンド トゥルース フローを必要とせずに、再構成された深度でオプティカル フロー (OF) ネットワークを直接監視できるようにするトレーニング アルゴリズムを提案します。
このアプローチにより、OFネットワークのトレーニングが生のiToF測定値を調整し、iToF深度画像のモーションアーティファクトを補正できることを示しています。
このアプローチは、シングル周波数センサーとマルチ周波数センサーの両方、およびマルチタップ センサーで評価され、他のモーション補正技術よりも優れた性能を発揮します。

要約(オリジナル)

Indirect Time-of-Flight (iToF) cameras are a widespread type of 3D sensor, which perform multiple captures to obtain depth values of the captured scene. While recent approaches to correct iToF depths achieve high performance when removing multi-path-interference and sensor noise, little research has been done to tackle motion artifacts. In this work we propose a training algorithm, which allows to supervise Optical Flow (OF) networks directly on the reconstructed depth, without the need of having ground truth flows. We demonstrate that this approach enables the training of OF networks to align raw iToF measurements and compensate motion artifacts in the iToF depth images. The approach is evaluated for both single- and multi-frequency sensors as well as multi-tap sensors, and is able to outperform other motion compensation techniques.

arxiv情報

著者 Michael Schelling,Pedro Hermosilla,Timo Ropinski
発行日 2022-10-19 13:45:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク