要約
この作業では、Sentinel-2 画像の単一画像超解像 (SISR) の問題を研究します。
その独自のセンサー仕様、つまりバンド間シフトとエイリアスのおかげで、深層学習手法が詳細を復元できることを示します。
単純な $L_1$ 損失を使用してモデルをトレーニングすることにより、結果に幻覚の詳細がなくなります。
この調査では、Sentinel-2/PlanetScope の画像ペアのデータセットを構築して、超解像 (SR) モデルをトレーニングおよび評価します。
要約(オリジナル)
In this work, we study the problem of single-image super-resolution (SISR) of Sentinel-2 imagery. We show that thanks to its unique sensor specification, namely the inter-band shift and alias, that deep-learning methods are able to recover fine details. By training a model using a simple $L_1$ loss, results are free of hallucinated details. For this study, we build a dataset of pairs of images Sentinel-2/PlanetScope to train and evaluate our super-resolution (SR) model.
arxiv情報
著者 | Ngoc Long Nguyen,Jérémy Anger,Lara Raad,Bruno Galerne,Gabriele Facciolo |
発行日 | 2023-02-22 17:08:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google