HyCoT: A Transformer-Based Autoencoder for Hyperspectral Image Compression

要約

学習ベースのハイパースペクトル画像 (HSI) 圧縮モデルの開発は、最近大きな関心を集めています。
既存のモデルは主に畳み込みフィルターを利用しており、ローカルな依存関係のみをキャプチャします。
さらに、多くの場合、高額なトレーニング コストがかかり、計算がかなり複雑になります。
これらの制限に対処するために、この論文では、ピクセルごとの HSI 圧縮のためのトランスフォーマーベースのオートエンコーダーであるハイパースペクトル圧縮トランスフォーマー (HyCoT) を提案します。
さらに、シンプルかつ効果的なトレーニング セット削減アプローチを適用して、トレーニング プロセスを加速します。
HySpecNet-11k データセットの実験結果は、HyCoT が、計算要件を大幅に削減しながら、さまざまな圧縮率にわたって PSNR を 1 dB 以上上回る最先端技術を上回っていることを示しています。
コードと事前トレーニングされた重みは、 https://git.tu-berlin.de/rsim/hycot で公開されています。

要約(オリジナル)

The development of learning-based hyperspectral image (HSI) compression models has recently attracted significant interest. Existing models predominantly utilize convolutional filters, which capture only local dependencies. Furthermore,they often incur high training costs and exhibit substantial computational complexity. To address these limitations, in this paper we propose Hyperspectral Compression Transformer (HyCoT) that is a transformer-based autoencoder for pixelwise HSI compression. Additionally, we apply a simple yet effective training set reduction approach to accelerate the training process. Experimental results on the HySpecNet-11k dataset demonstrate that HyCoT surpasses the state of the art across various compression ratios by over 1 dB of PSNR with significantly reduced computational requirements. Our code and pre-trained weights are publicly available at https://git.tu-berlin.de/rsim/hycot .

arxiv情報

著者 Martin Hermann Paul Fuchs,Behnood Rasti,Begüm Demir
発行日 2024-11-14 15:47:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク