要約
タイトル:PyNET-QxQ: CMOSイメージセンサのQxQベイヤーパターンデモザイキングのための効率的なPyNETバリアント
要約:
– モバイルカメラ向けの深層学習ベースの画像信号処理(ISP)モデルは、プロフェッショナルなDSLRカメラと同等の高品質の画像を生成することができます。
– しかしながら、彼らの計算要件はしばしば彼らをモバイルの設定に適さないものにします。
– 加えて、現代のモバイルカメラは、Quad Bayer、Nona Bayer、QxQ Bayerなどの非-ベイヤー・カラーフィルター・アレイ(CFA)を用いて、画像品質を向上させますが、多くの既存の深層学習ベースのISP(またはデモザイキング)モデルは、主に標準的なベイヤーCFAに焦点を当てています。
– 本研究では、QxQ Bayer CFAパターンのために特別に設計された軽量デモザイキングモデルであるPyNET-QxQを、元のPyNETから導出します。
– また、より効果的に縮小されたネットワークを訓練するための知識蒸留法であるプログレッシブ・ディスティレーションを提案します。
– 結果的に、PyNET-QxQは、パフォーマンスを維持しつつ、元のPyNETのパラメータのわずか2.5%以下を含んでいます。
– proto type QxQカメラセンサによってキャプチャされたQxQ画像を使用した実験では、PyNET-QxQは、有意に減少したパラメータ数にもかかわらず、テクスチャとエッジの再構成において既存の従来的なアルゴリズムを上回る性能を発揮します。
要約(オリジナル)
Deep learning-based image signal processor (ISP) models for mobile cameras can generate high-quality images that rival those of professional DSLR cameras. However, their computational demands often make them unsuitable for mobile settings. Additionally, modern mobile cameras employ non-Bayer color filter arrays (CFA) such as Quad Bayer, Nona Bayer, and QxQ Bayer to enhance image quality, yet most existing deep learning-based ISP (or demosaicing) models focus primarily on standard Bayer CFAs. In this study, we present PyNET-QxQ, a lightweight demosaicing model specifically designed for QxQ Bayer CFA patterns, which is derived from the original PyNET. We also propose a knowledge distillation method called progressive distillation to train the reduced network more effectively. Consequently, PyNET-QxQ contains less than 2.5% of the parameters of the original PyNET while preserving its performance. Experiments using QxQ images captured by a proto type QxQ camera sensor show that PyNET-QxQ outperforms existing conventional algorithms in terms of texture and edge reconstruction, despite its significantly reduced parameter count.
arxiv情報
著者 | Minhyeok Cho,Haechang Lee,Hyunwoo Je,Kijeong Kim,Dongil Ryu,Albert No |
発行日 | 2023-05-05 08:39:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI