Multiface: A Dataset for Neural Face Rendering

要約

人間の顔の写実的なアバターは近年長い道のりを歩んできましたが、この分野での研究は、公開されている高品質のデータセットの不足、高密度のマルチビューカメラキャプチャ、キャプチャされた被写体の豊かな表情によって制限されています。

この作業では、RealityLabsResearchの神経顔レンダリング用に13のIDから収集された新しいマルチビューの高解像度の人間の顔のデータセットであるMultifaceを紹介します。
顔のパフォーマンスの高解像度同期ビデオをキャプチャするための大規模なマルチカメラ装置であるMugsyを紹介します。
Multifaceの目標は、学術コミュニティにおける高品質のデータへのアクセシビリティのギャップを埋め、VRテレプレゼンスの研究を可能にすることです。
データセットのリリースとともに、新しい視点と表現のモデルの補間能力に対するさまざまなモデルアーキテクチャの影響に関するアブレーション研究を実施します。
ベースラインとして機能する条件付きVAEモデルを使用して、空間バイアス、テクスチャワープフィールド、および残余接続を追加すると、新しいビュー合成のパフォーマンスが向上することがわかりました。
コードとデータはhttps://github.com/facebookresearch/multifaceで入手できます。

要約(オリジナル)

Photorealistic avatars of human faces have come a long way in recent years, yet research along this area is limited by a lack of publicly available, high-quality datasets covering both, dense multi-view camera captures, and rich facial expressions of the captured subjects. In this work, we present Multiface, a new multi-view, high-resolution human face dataset collected from 13 identities at Reality Labs Research for neural face rendering. We introduce Mugsy, a large scale multi-camera apparatus to capture high-resolution synchronized videos of a facial performance. The goal of Multiface is to close the gap in accessibility to high quality data in the academic community and to enable research in VR telepresence. Along with the release of the dataset, we conduct ablation studies on the influence of different model architectures toward the model’s interpolation capacity of novel viewpoint and expressions. With a conditional VAE model serving as our baseline, we found that adding spatial bias, texture warp field, and residual connections improves performance on novel view synthesis. Our code and data is available at: https://github.com/facebookresearch/multiface

arxiv情報

著者 Cheng-hsin Wuu,Ningyuan Zheng,Scott Ardisson,Rohan Bali,Danielle Belko,Eric Brockmeyer,Lucas Evans,Timothy Godisart,Hyowon Ha,Alexander Hypes,Taylor Koska,Steven Krenn,Stephen Lombardi,Xiaomin Luo,Kevyn McPhail,Laura Millerschoen,Michal Perdoch,Mark Pitts,Alexander Richard,Jason Saragih,Junko Saragih,Takaaki Shiratori,Tomas Simon,Matt Stewart,Autumn Trimble,Xinshuo Weng,David Whitewolf,Chenglei Wu,Shoou-I Yu,Yaser Sheikh
発行日 2022-07-22 17:55:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.GR パーマリンク