要約
シーンを認識している適応型圧縮センシング(ACS)は、シーン画像の効率的かつ高忠実度の獲得のための有望な能力により、大きな関心を集めています。
ACSは通常、グラウンドトゥルースがない場合の以前のサンプルに基づいて、適応サンプリング割り当て(ASA)を規定しています。
ただし、未知のシーンに直面する場合、既存のACSメソッドには、ASAの正確な判断と堅牢なフィードバックメカニズムがしばしば欠けているため、シーンの高忠実度センシングが制限されます。
このホワイトペーパーでは、サンプリングを効果的に識別し、挑戦的な画像再構成エリアに割り当てることができるサンプリングイノベーションベースのACS(SIB-ACS)メソッドを紹介し、高忠実度の画像再構成に達します。
サンプリングの増加に起因する画像再構成エラーの減少を予測することにより、ASAを判断するためのイノベーション基準が提案され、それにより、再構成エラーが大幅に減少する領域に向けてより多くのサンプルを向けることが提案されています。
サンプリングイノベーションガイド付きマルチステージ適応サンプリング(AS)フレームワークが提案されており、マルチステージフィードバックプロセスを通じてASAを繰り返し洗練します。
画像再構成のために、主成分圧縮ドメインネットワーク(PCCD-NET)を提案します。これは、シナリオの下で画像を効率的かつ忠実に再構築します。
広範な実験は、提案されたSIB-ACS法が、画像の再構築の忠実度と視覚効果の観点から最先端の方法を大幅に上回ることを示しています。
コードはhttps://github.com/giant-pandada/sib-acs_cvpr2025で入手できます。
要約(オリジナル)
Scene-aware Adaptive Compressive Sensing (ACS) has attracted significant interest due to its promising capability for efficient and high-fidelity acquisition of scene images. ACS typically prescribes adaptive sampling allocation (ASA) based on previous samples in the absence of ground truth. However, when confronting unknown scenes, existing ACS methods often lack accurate judgment and robust feedback mechanisms for ASA, thus limiting the high-fidelity sensing of the scene. In this paper, we introduce a Sampling Innovation-Based ACS (SIB-ACS) method that can effectively identify and allocate sampling to challenging image reconstruction areas, culminating in high-fidelity image reconstruction. An innovation criterion is proposed to judge ASA by predicting the decrease in image reconstruction error attributable to sampling increments, thereby directing more samples towards regions where the reconstruction error diminishes significantly. A sampling innovation-guided multi-stage adaptive sampling (AS) framework is proposed, which iteratively refines the ASA through a multi-stage feedback process. For image reconstruction, we propose a Principal Component Compressed Domain Network (PCCD-Net), which efficiently and faithfully reconstructs images under AS scenarios. Extensive experiments demonstrate that the proposed SIB-ACS method significantly outperforms the state-of-the-art methods in terms of image reconstruction fidelity and visual effects. Codes are available at https://github.com/giant-pandada/SIB-ACS_CVPR2025.
arxiv情報
著者 | Zhifu Tian,Tao Hu,Chaoyang Niu,Di Wu,Shu Wang |
発行日 | 2025-03-17 14:54:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google