FLEX: Extrinsic Parameters-free Multi-view 3D Human Motion Reconstruction

要約

複数のカメラで作成されたビデオ録画の可用性が向上したことで、ポーズとモーションの再構築方法におけるオクルージョンと深度のあいまいさを軽減するための新しい手段が提供されました。
しかし、マルチビュー アルゴリズムはカメラ パラメータに大きく依存します。
特に、カメラ間の相対的な変換。
このような依存関係は、制御されていない設定で動的キャプチャに移行すると、ハードルになります。
FLEX (Free multi-view reconstruXion) を紹介します。これは、エンドツーエンドの外部パラメーターを使用しないマルチビュー モデルです。
FLEX は、外部カメラ パラメーターを必要としないという意味で、外部パラメーター フリー (ep フリーと呼ばれます) です。
私たちの重要なアイデアは、骨格パーツ間の 3D 角度とボーンの長さがカメラの位置に対して不変であるということです。
したがって、位置ではなく 3D 回転とボーンの長さを学習することで、すべてのカメラ ビューの共通値を予測できます。
私たちのネットワークは、複数のビデオ ストリームを取得し、新しいマルチビュー フュージョン レイヤーを通じてフュージョンされたディープ フィーチャを学習し、時間的にコヒーレントな関節回転で単一の一貫したスケルトンを再構築します。
3 つの公開データセットと、ダイナミック カメラでキャプチャされた複数人の合成ビデオ ストリームに関する定量的および定性的な結果を示します。
私たちのモデルを ep フリーではない最先端の方法と比較し、カメラ パラメーターがない場合、カメラ パラメーターが利用可能な場合に匹敵する結果を得ながら、それらを大幅に上回ることを示します。
コード、トレーニング済みモデル、およびその他の資料は、プロジェクト ページで入手できます。

要約(オリジナル)

The increasing availability of video recordings made by multiple cameras has offered new means for mitigating occlusion and depth ambiguities in pose and motion reconstruction methods. Yet, multi-view algorithms strongly depend on camera parameters; particularly, the relative transformations between the cameras. Such a dependency becomes a hurdle once shifting to dynamic capture in uncontrolled settings. We introduce FLEX (Free muLti-view rEconstruXion), an end-to-end extrinsic parameter-free multi-view model. FLEX is extrinsic parameter-free (dubbed ep-free) in the sense that it does not require extrinsic camera parameters. Our key idea is that the 3D angles between skeletal parts, as well as bone lengths, are invariant to the camera position. Hence, learning 3D rotations and bone lengths rather than locations allows predicting common values for all camera views. Our network takes multiple video streams, learns fused deep features through a novel multi-view fusion layer, and reconstructs a single consistent skeleton with temporally coherent joint rotations. We demonstrate quantitative and qualitative results on three public datasets, and on synthetic multi-person video streams captured by dynamic cameras. We compare our model to state-of-the-art methods that are not ep-free and show that in the absence of camera parameters, we outperform them by a large margin while obtaining comparable results when camera parameters are available. Code, trained models, and other materials are available on our project page.

arxiv情報

著者 Brian Gordon,Sigal Raab,Guy Azov,Raja Giryes,Daniel Cohen-Or
発行日 2022-10-21 14:56:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.GR, cs.LG, I.4.5 パーマリンク