要約
スパースコーディングは、学習された辞書の要素のスパースな線形結合として信号をモデル化することを指し、信号処理、コンピュータービジョン、医療画像処理などのアプリケーションで成功する (そして解釈可能な) アプローチであることが証明されています。
この成功により、学習された辞書がグラウンド トゥルースの辞書と同じサイズである場合の辞書復元の証明可能な保証に関する多くの研究が促進されましたが、学習された辞書がグラウンド トゥルースに対してより大きい (または過剰に実現された) という設定にも取り組む必要があります。
比較的初期のものです。
この設定における既存の理論的結果は、ノイズのないデータの場合に限定されています。
この研究では、ノイズが存在する場合、標準辞書学習目標を最小化すると、データ生成時の信号の大きさに関係なく、過剰実現領域でグラウンドトゥルース辞書の要素を回復できない可能性があることを示します。
プロセス。
さらに、自己教師あり学習に関する増え続ける一連の研究に基づいて、大規模なクラスのデータ生成プロセスで信号が増加するにつれて、グラウンドトゥルース辞書を回復することが実際に最適である新しいマスキング目標を提案します。
いくつかのパラメータ領域にわたる実験で理論的結果を裏付け、私たちが提案した目的が標準の再構成目的よりも優れた経験的パフォーマンスを享受できることを示しています。
要約(オリジナル)
Sparse coding, which refers to modeling a signal as sparse linear combinations of the elements of a learned dictionary, has proven to be a successful (and interpretable) approach in applications such as signal processing, computer vision, and medical imaging. While this success has spurred much work on provable guarantees for dictionary recovery when the learned dictionary is the same size as the ground-truth dictionary, work on the setting where the learned dictionary is larger (or over-realized) with respect to the ground truth is comparatively nascent. Existing theoretical results in this setting have been constrained to the case of noise-less data. We show in this work that, in the presence of noise, minimizing the standard dictionary learning objective can fail to recover the elements of the ground-truth dictionary in the over-realized regime, regardless of the magnitude of the signal in the data-generating process. Furthermore, drawing from the growing body of work on self-supervised learning, we propose a novel masking objective for which recovering the ground-truth dictionary is in fact optimal as the signal increases for a large class of data-generating processes. We corroborate our theoretical results with experiments across several parameter regimes showing that our proposed objective also enjoys better empirical performance than the standard reconstruction objective.
arxiv情報
著者 | Muthu Chidambaram,Chenwei Wu,Yu Cheng,Rong Ge |
発行日 | 2023-06-01 14:45:19+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google