要約
最初の 3D モーフィング可能なモデリング アプローチを提示します。これにより、テキスト プロンプトを使用して 3D 顔の形状を直接かつ完全に定義できます。
マルチモーダル学習の作業に基づいて、FLAME ヘッド モデルを共通の画像とテキストの潜在空間に拡張します。
これにより、3D Morphable Model (3DMM) パラメータを直接生成できるため、テキスト記述から形状を操作できます。
メソッド Text2Face には多くのアプリケーションがあります。
たとえば、入力がすでに自然言語である警察の写真を生成します。
さらに、画像だけでなく、スケッチや彫刻へのマルチモーダル 3DMM 画像フィッティングも可能になります。
要約(オリジナル)
We present the first 3D morphable modelling approach, whereby 3D face shape can be directly and completely defined using a textual prompt. Building on work in multi-modal learning, we extend the FLAME head model to a common image-and-text latent space. This allows for direct 3D Morphable Model (3DMM) parameter generation and therefore shape manipulation from textual descriptions. Our method, Text2Face, has many applications; for example: generating police photofits where the input is already in natural language. It further enables multi-modal 3DMM image fitting to sketches and sculptures, as well as images.
arxiv情報
著者 | Will Rowan,Patrik Huber,Nick Pears,Andrew Keeling |
発行日 | 2023-03-08 11:28:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google