要約
我々は、マテリアルのサンプル画像を与えられた入力画像内のオブジェクトにゼロショットマテリアルを転写する手法である ZeST を提案します。
ZeST は、既存の拡散アダプターを利用して、サンプル画像から暗黙的なマテリアル表現を抽出します。
この表現は、ジオメトリ キューとして深度推定を使用し、イルミネーション キューとしてグレースケール オブジェクト シェーディングを使用して、入力イメージ内のオブジェクト上で事前にトレーニングされた修復拡散モデルを使用してマテリアルを転送するために使用されます。
この方法は、トレーニングなしで実際の画像に作用し、結果としてゼロショット アプローチが実現します。
実際のデータセットと合成データセットの定性的結果と定量的結果の両方から、ZeST が転送されたマテリアルを使用してフォトリアリスティックな画像を出力することが実証されています。
また、さまざまな照明の下で複数の編集と堅牢なマテリアルの割り当てを実行するための ZeST のアプリケーションも示します。
プロジェクトページ: https://ttchengab.github.io/zest
要約(オリジナル)
We propose ZeST, a method for zero-shot material transfer to an object in the input image given a material exemplar image. ZeST leverages existing diffusion adapters to extract implicit material representation from the exemplar image. This representation is used to transfer the material using pre-trained inpainting diffusion model on the object in the input image using depth estimates as geometry cue and grayscale object shading as illumination cues. The method works on real images without any training resulting a zero-shot approach. Both qualitative and quantitative results on real and synthetic datasets demonstrate that ZeST outputs photorealistic images with transferred materials. We also show the application of ZeST to perform multiple edits and robust material assignment under different illuminations. Project Page: https://ttchengab.github.io/zest
arxiv情報
著者 | Ta-Ying Cheng,Prafull Sharma,Andrew Markham,Niki Trigoni,Varun Jampani |
発行日 | 2024-04-09 16:15:03+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google