Missing Data Imputation with Graph Laplacian Pyramid Network

要約

タイトル:グラフ・ラプラシアン・ピラミッド・ネットワークを用いた欠損データの代入
要約:
– 欠損データは普遍的であり、重要なタスクであるため、多くの努力が行われている。
– これまでのアプローチでは、完成したデータを作成してから、改めて修正して、代入結果を導出していた。
– この研究では、Dirichletエネルギーの観点から、この広く採用された方法を分析した。
– ラディメントな代入であれば、Dirichletエネルギーが低下するため、エネルギー維持の「修正」ステップが必要とされ、Graph Convolutional Network(GCN)などの既存の修正メソッドはさらなるエネルギー低下を招く傾向があった。
– そこで本研究では、グラフ・ラプラシアン・ピラミッド・ネットワーク(GLPN)という新しいフレームワークを提案し、Dirichletエネルギーを保持し、代入性能を向上させた。
– GLPNは、U字型のオートエンコーダーと残差ネットワークから構成され、それぞれがグローバルな情報とローカルな詳細情報を捉える役割を持っている。
– さまざまな実世界のデータセットでの詳細な実験の結果、GLPNは3つの異なる欠損メカニズムにおいて、ステートオブジアート・メソッドよりも優れたパフォーマンスを示した。
– 著者らのソースコードは、https://github.com/liguanlue/GLPN から入手できる。

要約(オリジナル)

Data imputation is a prevalent and important task due to the ubiquitousness of missing data. Many efforts try to first draft a completed data and second refine to derive the imputation results, or ‘draft-then-refine’ for short. In this work, we analyze this widespread practice from the perspective of Dirichlet energy. We find that a rudimentary ‘draft’ imputation will decrease the Dirichlet energy, thus an energy-maintenance ‘refine’ step is in need to recover the overall energy. Since existing ‘refine’ methods such as Graph Convolutional Network (GCN) tend to cause further energy decline, in this work, we propose a novel framework called Graph Laplacian Pyramid Network (GLPN) to preserve Dirichlet energy and improve imputation performance. GLPN consists of a U-shaped autoencoder and residual networks to capture global and local detailed information respectively. By extensive experiments on several real-world datasets, GLPN shows superior performance over state-of-the-art methods under three different missing mechanisms. Our source code is available at https://github.com/liguanlue/GLPN.

arxiv情報

著者 Weiqi Zhang,Guanlve Li,Jianheng Tang,Jia Li,Fugee Tsung
発行日 2023-04-10 09:23:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG パーマリンク