要約
近年、画像編集の進歩はめざましいものがあります。
人間による制御が強化されたことで、さまざまな方法で画像を編集できるようになりました。
変更したいものをテキストで指定することから、インタラクティブなポイントベースの方法で画像のコンテンツを直接ドラッグすることまで可能です。
ただし、ほとんどの焦点は、一度に 1 つの画像を編集することに留まっています。
大量の画像を同時に編集できるかどうか、またその方法はまだ研究されていません。
編集プロセスにおける人間の監視を最小限に抑えることを目的として、この論文では、StyleGAN を媒体として使用したインタラクティブなバッチ画像編集のための新しい方法を紹介します。
サンプル画像でユーザーが指定した編集 (例: 顔を正面にする) を指定すると、このメソッドはその編集を他のテスト画像に自動的に転送できるため、初期状態 (ポーズ) に関係なく、すべてが同じ最終状態に到達します。
(例:すべて正面を向いています)。
広範な実験により、私たちの方法を使用して実行された編集は、既存の単一画像編集方法と同様の視覚的品質を持ちながら、より視覚的な一貫性があり、時間と人的労力を大幅に節約できることが実証されました。
要約(オリジナル)
In recent years, image editing has advanced remarkably. With increased human control, it is now possible to edit an image in a plethora of ways; from specifying in text what we want to change, to straight up dragging the contents of the image in an interactive point-based manner. However, most of the focus has remained on editing single images at a time. Whether and how we can simultaneously edit large batches of images has remained understudied. With the goal of minimizing human supervision in the editing process, this paper presents a novel method for interactive batch image editing using StyleGAN as the medium. Given an edit specified by users in an example image (e.g., make the face frontal), our method can automatically transfer that edit to other test images, so that regardless of their initial state (pose), they all arrive at the same final state (e.g., all facing front). Extensive experiments demonstrate that edits performed using our method have similar visual quality to existing single-image-editing methods, while having more visual consistency and saving significant time and human effort.
arxiv情報
著者 | Thao Nguyen,Utkarsh Ojha,Yuheng Li,Haotian Liu,Yong Jae Lee |
発行日 | 2024-01-18 18:58:44+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google