Adaptively-weighted Nearest Neighbors for Matrix Completion

要約

このテクニカルノートでは、AWNNを紹介および分析します。マトリックス完了を実行するための適応的に加重最近隣接方法です。
最近傍(NN)メソッドは、推奨システムなどの複数の分野で欠落したデータの問題や、パネルデータ設定で反事実的推論を実行するために広く使用されています。
以前の作品は、非常に直感的で実装しやすいことに加えて、NNメソッドが優れた理論的保証を楽しむことを示しています。
ただし、NNメソッドの大部分のパフォーマンスは、最近隣接セットの各メンバーに割り当てられた半径と重量の適切な選択に依存しており、過去20年間に最近隣接の方法に関するいくつかの作業にもかかわらず、クロスバリッド化などの方法に依存することなく、半径と重みを選択する体系的なアプローチは存在しません。
AWNNは、重み付けされた最近隣人回帰に固有のバイアス分散トレードオフのバランスを慎重にバランスさせることにより、この課題に対処します。
最小限の仮定の下で提案された方法の理論的保証を提供し、合成実験を介して理論をサポートします。

要約(オリジナル)

In this technical note, we introduce and analyze AWNN: an adaptively weighted nearest neighbor method for performing matrix completion. Nearest neighbor (NN) methods are widely used in missing data problems across multiple disciplines such as in recommender systems and for performing counterfactual inference in panel data settings. Prior works have shown that in addition to being very intuitive and easy to implement, NN methods enjoy nice theoretical guarantees. However, the performance of majority of the NN methods rely on the appropriate choice of the radii and the weights assigned to each member in the nearest neighbor set and despite several works on nearest neighbor methods in the past two decades, there does not exist a systematic approach of choosing the radii and the weights without relying on methods like cross-validation. AWNN addresses this challenge by judiciously balancing the bias variance trade off inherent in weighted nearest-neighbor regression. We provide theoretical guarantees for the proposed method under minimal assumptions and support the theory via synthetic experiments.

arxiv情報

著者 Tathagata Sadhukhan,Manit Paul,Raaz Dwivedi
発行日 2025-05-14 17:59:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.ST, stat.ME, stat.ML, stat.TH パーマリンク