Solving the Best Subset Selection Problem via Suboptimal Algorithms

要約

線形回帰における最良のサブセット選択は、問題の次元が増加すると急速に増加するため、可能なサブセットの数が急速に増加するため、解決するのが容易ではなく、計算的に困難であることがよく知られています。
その結果、1000の寸法の問題のための正確な最適化方法を介してグローバルな最適ソリューションを見つけるには、非実用的な量のCPU時間がかかる場合があります。
これは、正確な方法よりもはるかに少ない計算努力を使用して、適切な近似ソリューションを提供できる最適ではない手順を見つけることの重要性を示唆しています。
この作業では、新しい手順を導入し、他の一般的な準最適アルゴリズムと比較して、最良のサブセット選択問題を解決します。
合成データと実際のデータを使用した広範な計算実験が実行されています。
結果は、さまざまなデータ設定でのこれらのメソッドのパフォーマンスに関する洞察を提供します。
新しい手順は、高次元データの最良のサブセット選択問題を解決するための競争力のある準最適アルゴリズムであることが観察されています。

要約(オリジナル)

Best subset selection in linear regression is well known to be nonconvex and computationally challenging to solve, as the number of possible subsets grows rapidly with increasing dimensionality of the problem. As a result, finding the global optimal solution via an exact optimization method for a problem with dimensions of 1000s may take an impractical amount of CPU time. This suggests the importance of finding suboptimal procedures that can provide good approximate solutions using much less computational effort than exact methods. In this work, we introduce a new procedure and compare it with other popular suboptimal algorithms to solve the best subset selection problem. Extensive computational experiments using synthetic and real data have been performed. The results provide insights into the performance of these methods in different data settings. The new procedure is observed to be a competitive suboptimal algorithm for solving the best subset selection problem for high-dimensional data.

arxiv情報

著者 Vikram Singh,Min Sun
発行日 2025-03-31 16:43:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 65K05, 90C59, cs.LG, stat.ML パーマリンク