3D Scene Inference from Transient Histograms

要約

ピコからナノ秒のタイムスケールで光を捉える時間分解イメージ センサーは、かつてはニッチな用途に限定されていましたが、現在では消費者向けデバイスで急速に主流になりつつあります。
わずか 1 ピクセルの最小限の時間分解イメージ センサーからシーン情報をキャプチャする、低コストで低電力のイメージング モダリティを提案します。
重要なアイデアは、大きなシーン パッチ (またはシーン全体) をパルス光源でフラッド照明し、照明された領域全体を積分することによって時間分解された反射光を測定することです。
\emph{transient} と呼ばれる 1 次元の測定時間波形は、すべての可視シーン ポイントでの距離とアルベドの両方をエンコードし、シーンの 3D ジオメトリの集約プロキシです。
シーン情報を回復するために、また従来の RGB カメラと組み合わせた場合の過渡波形の実行可能性と限界を探ります。
単一のトランジェントからプレーン推定を実行できること、さらにいくつかのトランジェントを使用するだけでシーン全体の深度マップを復元できることを示します。
また、コンパクト、モバイル、および予算が限られているアプリケーションに対するアプローチの実現可能性を実証する 2 つの概念実証ハードウェア プロトタイプも示します。

要約(オリジナル)

Time-resolved image sensors that capture light at pico-to-nanosecond timescales were once limited to niche applications but are now rapidly becoming mainstream in consumer devices. We propose low-cost and low-power imaging modalities that capture scene information from minimal time-resolved image sensors with as few as one pixel. The key idea is to flood illuminate large scene patches (or the entire scene) with a pulsed light source and measure the time-resolved reflected light by integrating over the entire illuminated area. The one-dimensional measured temporal waveform, called \emph{transient}, encodes both distances and albedoes at all visible scene points and as such is an aggregate proxy for the scene’s 3D geometry. We explore the viability and limitations of the transient waveforms by themselves for recovering scene information, and also when combined with traditional RGB cameras. We show that plane estimation can be performed from a single transient and that using only a few more it is possible to recover a depth map of the whole scene. We also show two proof-of-concept hardware prototypes that demonstrate the feasibility of our approach for compact, mobile, and budget-limited applications.

arxiv情報

著者 Sacha Jungerman,Atul Ingle,Yin Li,Mohit Gupta
発行日 2022-11-09 18:31:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク