Learning Explicitly Conditioned Sparsifying Transforms

要約

スパース化変換は、特定の変換ドメイン内の信号の構造化されたスパース表現を見つけるためのツールとして、ここ数十年で広く知られるようになりました。
DCT やウェーブレットなどの古典的な変換の人気にもかかわらず、疎領域へのデータの適切な表現を保証する最適な変換の学習が、最近一連の論文で分析されています。
通常、条件付け数と表現能力は、学習二乗変換の相補的な重要な機能ですが、特定の最適化モデルでは明示的に制御できない場合があります。
文献による既存のアプローチとは異なり、私たちの論文では、データ表現の品質と学習された変換の条件数に対する明示的な制御を強制する新しいスパース化変換モデルを検討します。
数値実験を通じて、私たちのモデルが最先端のモデルよりも優れた数値的動作を示すことを確認します。

要約(オリジナル)

Sparsifying transforms became in the last decades widely known tools for finding structured sparse representations of signals in certain transform domains. Despite the popularity of classical transforms such as DCT and Wavelet, learning optimal transforms that guarantee good representations of data into the sparse domain has been recently analyzed in a series of papers. Typically, the conditioning number and representation ability are complementary key features of learning square transforms that may not be explicitly controlled in a given optimization model. Unlike the existing approaches from the literature, in our paper, we consider a new sparsifying transform model that enforces explicit control over the data representation quality and the condition number of the learned transforms. We confirm through numerical experiments that our model presents better numerical behavior than the state-of-the-art.

arxiv情報

著者 Andrei Pătraşcu,Cristian Rusu,Paul Irofti
発行日 2024-03-05 18:03:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.NA, math.NA, math.OC パーマリンク