Restorer: Removing Multi-Degradation with All-Axis Attention and Prompt Guidance

要約

しかし、ほとんどの方法は、異なるタイプの劣化を持つ画像を復元するために別々のモデルを学習する必要があります。既存のオールインワンモデルは、複数のタイプの劣化に同時に効果的に対処しますが、実世界のシナリオにおけるその性能は、タスクの混同問題によって依然として制約されています。この研究では、新規のTransformerベースのオールインワン画像復元モデルである୧⃛(๑⃙⃘⁼̴̀꒳⁼̴́๑⃙⃘)୨⃛を導入することによって、この問題に対処することを試みます。実世界の画像に存在する複雑な劣化に効果的に対処するために、我々は全軸注意(AAA:All-Axis Attention)を提案する。AAAは、空間次元とチャンネル次元の両方にわたる長距離依存関係を同時にモデル化するメカニズムであり、すべての軸に沿った潜在的な相関関係を捉える。これらの設計に基づき、1セットのパラメータを持つRestorerは、既存のオールインワンモデルやシングルタスクモデルと比較して、複数の画像復元タスクにおいて最先端の性能を示す。

要約(オリジナル)

There are many excellent solutions in image restoration.However, most methods require on training separate models to restore images with different types of degradation.Although existing all-in-one models effectively address multiple types of degradation simultaneously, their performance in real-world scenarios is still constrained by the task confusion problem.In this work, we attempt to address this issue by introducing \textbf{Restorer}, a novel Transformer-based all-in-one image restoration model.To effectively address the complex degradation present in real-world images, we propose All-Axis Attention (AAA), a mechanism that simultaneously models long-range dependencies across both spatial and channel dimensions, capturing potential correlations along all axes.Additionally, we introduce textual prompts in Restorer to incorporate explicit task priors, enabling the removal of specific degradation types based on user instructions. By iterating over these prompts, Restorer can handle composite degradation in real-world scenarios without requiring additional training.Based on these designs, Restorer with one set of parameters demonstrates state-of-the-art performance in multiple image restoration tasks compared to existing all-in-one and even single-task models.Additionally, Restorer is efficient during inference, suggesting the potential in real-world applications.

arxiv情報

著者 Jiawei Mao,Juncheng Wu,Yuyin Zhou,Xuesong Yin,Yuanqi Chang
発行日 2024-09-03 13:36:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク