要約
写真撮影は、現代の天文学および宇宙研究の要である。しかし、地上の望遠鏡で撮影された天文画像のほとんどは、大気の乱れに悩まされ、その結果、画像品質が低下する。ラッキーイメージングのようなマルチフレームストラテジーは、その影響を軽減することはできるが、データ取得に多大な労力を要し、複雑なマニュアル処理が必要となる。本論文では、大気の乱れを緩和するために、拡散モデルの高品質な生成プライアと復元能力の両方を活用する生成復元法であるAstroDiffを提案する。広範な実験により、AstroDiffは、天体画像の乱流緩和において、既存の最先端の学習ベースの手法を凌駕し、厳しい乱流条件下でより高い知覚品質とより優れた構造忠実度を提供することが実証された。我々のコードとその他の結果は、https://web-six-kappa-66.vercel.app/ でご覧いただけます。
要約(オリジナル)
Photography is the cornerstone of modern astronomical and space research. However, most astronomical images captured by ground-based telescopes suffer from atmospheric turbulence, resulting in degraded imaging quality. While multi-frame strategies like lucky imaging can mitigate some effects, they involve intensive data acquisition and complex manual processing. In this paper, we propose AstroDiff, a generative restoration method that leverages both the high-quality generative priors and restoration capabilities of diffusion models to mitigate atmospheric turbulence. Extensive experiments demonstrate that AstroDiff outperforms existing state-of-the-art learning-based methods in astronomical image turbulence mitigation, providing higher perceptual quality and better structural fidelity under severe turbulence conditions. Our code and additional results are available at https://web-six-kappa-66.vercel.app/
arxiv情報
著者 | Joonyeoup Kim,Yu Yuan,Xingguang Zhang,Xijun Wang,Stanley Chan |
発行日 | 2025-06-03 15:18:48+00:00 |
arxivサイト | arxiv_id(pdf) |