要約
学習ベースのハイパースペクトル画像 (HSI) 圧縮モデルの開発は、最近大きな関心を集めています。
既存のモデルは主に畳み込みフィルターを利用しており、ローカルな依存関係のみをキャプチャします。
さらに、多くの場合、高いトレーニング コストがかかり、計算がかなり複雑になります。
これらの制限に対処するために、この論文では、ピクセルごとの HSI 圧縮のためのトランスフォーマーベースのオートエンコーダーであるハイパースペクトル圧縮トランスフォーマー (HyCoT) を提案します。
さらに、トレーニングプロセスを加速するための効率的なトレーニング戦略を紹介します。
HySpecNet-11k データセットの実験結果は、HyCoT が計算要件を大幅に削減しながら、さまざまな圧縮率にわたって最先端のものを 1 dB 以上上回っていることを示しています。
コードと事前トレーニングされた重みは、 https://git.tu-berlin.de/rsim/hycot で公開されています。
要約(オリジナル)
The development of learning-based hyperspectral image (HSI) compression models has recently attracted significant interest. Existing models predominantly utilize convolutional filters, which capture only local dependencies. Furthermore, they often incur high training costs and exhibit substantial computational complexity. To address these limitations, in this paper we propose Hyperspectral Compression Transformer (HyCoT) that is a transformer-based autoencoder for pixelwise HSI compression. Additionally, we introduce an efficient training strategy to accelerate the training process. Experimental results on the HySpecNet-11k dataset demonstrate that HyCoT surpasses the state-of-the-art across various compression ratios by over 1 dB with significantly reduced computational requirements. Our code and pre-trained weights are publicly available at https://git.tu-berlin.de/rsim/hycot .
arxiv情報
著者 | Martin Hermann Paul Fuchs,Behnood Rasti,Begüm Demir |
発行日 | 2024-08-16 12:27:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google