Stroke-based Cyclic Amplifier: Image Super-Resolution at Arbitrary Ultra-Large Scales

要約

以前の任意のスケール画像スーパー解像度(ASISR)メソッドは、アップサンプリング係数がトレーニングデータでカバーされている範囲を超えて、かなりのぼやけを導入すると、大幅なパフォーマンスの低下を経験することがよくあります。
この問題に対処するために、超大規模なアップサンプリングタスクのために、統一モデル、ストロークベースの環状アンプ(SBCA)を提案します。
SBCAのキーは、ストロークベクターアンプであり、拡大のためのベクトルグラフィックスとして表される一連のストロークに画像を分解します。
次に、詳細完了モジュールでは詳細が欠落していることも復元され、忠実度の高い画像の再構成が確保されます。
私たちの環状戦略は、この統合されたSBCAモデルを使用して詳細を繰り返し洗練することにより、トレーニング範囲内にサブスケールを維持しながら、すべてのために1回だけトレーニングされることにより、超大規模なアップサンプリングを実現します。
私たちのアプローチは、分布ドリフトの問題に効果的に対処し、アーティファクト、ノイズ、ぼやけを排除し、高品質の高解像度の超解凍画像を生成します。
合成データセットと現実世界の両方のデータセットでの実験的検証は、私たちのアプローチが超大規模なアップサンプリングタスク($ \ Times100 $など)の既存の方法を大幅に上回り、最先端の技術よりもはるかに優れた視覚品質を提供することを示しています。

要約(オリジナル)

Prior Arbitrary-Scale Image Super-Resolution (ASISR) methods often experience a significant performance decline when the upsampling factor exceeds the range covered by the training data, introducing substantial blurring. To address this issue, we propose a unified model, Stroke-based Cyclic Amplifier (SbCA), for ultra-large upsampling tasks. The key of SbCA is the stroke vector amplifier, which decomposes the image into a series of strokes represented as vector graphics for magnification. Then, the detail completion module also restores missing details, ensuring high-fidelity image reconstruction. Our cyclic strategy achieves ultra-large upsampling by iteratively refining details with this unified SbCA model, trained only once for all, while keeping sub-scales within the training range. Our approach effectively addresses the distribution drift issue and eliminates artifacts, noise and blurring, producing high-quality, high-resolution super-resolved images. Experimental validations on both synthetic and real-world datasets demonstrate that our approach significantly outperforms existing methods in ultra-large upsampling tasks (e.g. $\times100$), delivering visual quality far superior to state-of-the-art techniques.

arxiv情報

著者 Wenhao Guo,Peng Lu,Xujun Peng,Zhaoran Zhao,Sheng Li
発行日 2025-06-12 14:51:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク