Going Deeper with Spectral Embeddings

要約

数百万の生データを理解して効率的に表現するために、実務者は表現学習に頼っています。
最近、これらのアプローチといくつかの基礎となる演算子のスペクトル分解との間に深いつながりがあることが示されています。
歴史的に、明示的なスペクトル埋め込みは、データの上に構築されたグラフから構築されてきました。
対照的に、我々はスペクトル埋め込みを構築するための 2 つの新しい方法を提案します。1 つは理論的保証のあるアルゴリズムをもたらす関数解析原理とカーネル法に基づくもので、もう 1 つは原理に基づく変分損失を最適化するように訓練された深層ネットワークに基づくもので、実用的に効率的なアルゴリズムを生成します。

さらに、学習した表現を活用して 1 つのステップで新しいサンプルを生成する新しいサンプリング アルゴリズムを提供します。

要約(オリジナル)

To make sense of millions of raw data and represent them efficiently, practitioners rely on representation learning. Recently, deep connections have been shown between these approaches and the spectral decompositions of some underlying operators. Historically, explicit spectral embeddings were built from graphs constructed on top of the data. In contrast, we propose two new methods to build spectral embeddings: one based on functional analysis principles and kernel methods, which leads to algorithms with theoretical guarantees, and the other based on deep networks trained to optimize principled variational losses, which yield practically efficient algorithms. Furthermore, we provide a new sampling algorithm that leverages learned representations to generate new samples in a single step.

arxiv情報

著者 Vivien Cabannes
発行日 2023-06-01 14:38:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML パーマリンク