Multi-Modality Image Inpainting using Generative Adversarial Networks

要約

ディープラーニング技術、特にGenerative Adversarial Networks(GAN)は、過去数年間で画像の修復と画像から画像への変換タスクを大幅に改善しました。
私たちの知る限りでは、画像修復タスクをマルチモダリティの画像から画像への変換と組み合わせるという問題はそのままです。
本論文では、この問題に対処するためのモデルを提案する。
モデルは、有望な定性的および定量的結果とともに、日常の画像翻訳と修復を組み合わせて評価されます。

要約(オリジナル)

Deep learning techniques, especially Generative Adversarial Networks (GANs) have significantly improved image inpainting and image-to-image translation tasks over the past few years. To the best of our knowledge, the problem of combining the image inpainting task with the multi-modality image-to-image translation remains intact. In this paper, we propose a model to address this problem. The model will be evaluated on combined night-to-day image translation and inpainting, along with promising qualitative and quantitative results.

arxiv情報

著者 Aref Abedjooy,Mehran Ebrahimi
発行日 2022-06-22 15:24:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, eess.IV パーマリンク