要約
広範囲にわたる人体の形状やポーズを生成できる、人間中心の広範な測定結果によって定式化された新しい人体モデルを紹介します。
提案されたモデルは、任意のポーズの人間を生成できる深い生成アーキテクチャを通じて、特定の人間のアイデンティティの直接モデリングを可能にします。
これは、合成的に生成されたデータのみを使用してエンドツーエンドでトレーニングされた初めての製品であり、非常に正確な人間のメッシュ表現を提供するだけでなく、身体の正確な人体測定も可能になります。
さらに、非常に多様なアニメーション ライブラリを使用して、合成人間の体と手を表現し、モデル トレーニングの学習可能な事前分布の多様性を最大化しました。
私たちのモデルは、10 万ドルで手続き的に生成されたポーズをとった人間メッシュとそれに対応する人体計測値のデータセットでトレーニングされました。
当社の合成データ ジェネレーターは、非営利の学術研究目的で何百万もの固有の人間のアイデンティティやポーズを生成するために使用できます。
要約(オリジナル)
We present a novel human body model formulated by an extensive set of anthropocentric measurements, which is capable of generating a wide range of human body shapes and poses. The proposed model enables direct modeling of specific human identities through a deep generative architecture, which can produce humans in any arbitrary pose. It is the first of its kind to have been trained end-to-end using only synthetically generated data, which not only provides highly accurate human mesh representations but also allows for precise anthropometry of the body. Moreover, using a highly diverse animation library, we articulated our synthetic humans’ body and hands to maximize the diversity of the learnable priors for model training. Our model was trained on a dataset of $100k$ procedurally-generated posed human meshes and their corresponding anthropometric measurements. Our synthetic data generator can be used to generate millions of unique human identities and poses for non-commercial academic research purposes.
arxiv情報
著者 | Francesco Picetti,Shrinath Deshpande,Jonathan Leban,Soroosh Shahtalebi,Jay Patel,Peifeng Jing,Chunpu Wang,Charles Metze III,Cameron Sun,Cera Laidlaw,James Warren,Kathy Huynh,River Page,Jonathan Hogins,Adam Crespi,Sujoy Ganguly,Salehe Erfanian Ebadi |
発行日 | 2023-09-07 16:09:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google