要約
既存のほとんどの畳み込み辞書学習 (CDL) アルゴリズムはバッチ学習に基づいており、辞書フィルターと畳み込みスパース表現は、トレーニング データセットを使用して交互に最適化されます。
大規模なトレーニング データセットが使用されると、バッチ CDL アルゴリズムは非常に大量のメモリを消費します。
オンライン学習手法を使用して、各トレーニング サンプルのスパース表現を見つけた後、ディクショナリを段階的に最適化することにより、CDL のメモリ要件を削減します。
それにもかかわらず、既存のオンライン CDL (OCDL) アルゴリズムを使用して大規模な辞書を学習することは、依然として計算コストが非常に高くなります。
この論文では、トレーニングサンプルのスパース分解を組み込んだ新しい近似OCDLメソッドを提示します。
結果として生じる最適化問題は、乗数の交互方向法を使用して対処されます。
いくつかの画像データセットを使用した広範な実験的評価は、提案された方法が最先端の OCDL アルゴリズムの有効性を維持しながら計算コストを大幅に削減することを示しています。
要約(オリジナル)
Most existing convolutional dictionary learning (CDL) algorithms are based on batch learning, where the dictionary filters and the convolutional sparse representations are optimized in an alternating manner using a training dataset. When large training datasets are used, batch CDL algorithms become prohibitively memory-intensive. An online-learning technique is used to reduce the memory requirements of CDL by optimizing the dictionary incrementally after finding the sparse representations of each training sample. Nevertheless, learning large dictionaries using the existing online CDL (OCDL) algorithms remains highly computationally expensive. In this paper, we present a novel approximate OCDL method that incorporates sparse decomposition of the training samples. The resulting optimization problems are addressed using the alternating direction method of multipliers. Extensive experimental evaluations using several image datasets show that the proposed method substantially reduces computational costs while preserving the effectiveness of the state-of-the-art OCDL algorithms.
arxiv情報
著者 | Farshad G. Veshki,Sergiy A. Vorobyov |
発行日 | 2023-01-25 13:40:18+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google