Low degree conjecture implies sharp computational thresholds in stochastic block model

要約

対称確率的ブロックモデルのコンテキストにおける(拡張)低程度の推測(最近[MW23]で正式化された)の意味を調査します。
推測が当てはまると仮定すると、多項式時間アルゴリズムがKesten-Stigum(KS)しきい値の下にコミュニティラベルを弱く回復できることを確立します。
特に、一定の確率で、ランダムよりも大幅に優れている真のコミュニティとの相関を達成するという多項式時間推定器を除外します。
一方、KSのしきい値を超えて、多項式時間アルゴリズムは、高い確率を持つ真のコミュニティと一定の相関を達成することが知られています[MAS14、AS15]。
私たちの知る限り、KSしきい値での多項式時間アルゴリズムの回復率における急激な遷移の最初の厳密な証拠を提供します。
特に、低級の推測の強力なバージョンの下では、ブロックの数が分岐した場合でも、下限は有効なままです。
さらに、我々の結果は、確率的ブロックモデルのパラメーターを学習する際の計算間ギャップの証拠を提供します。
以前の研究とは対照的に、(i)は、低次の推測下で1-O(1)成功確率[Hopkins18、BBK+21A]で仮説テストの多項式時間アルゴリズムを除外するか、(ii)エッジ接続の確率マトリックスを学習するための低級多項式を除外します。
私たちの証明は、[Hopkins18、BBK+21a]の低程度の下限と、グラフの分割と交差検証技術を組み合わせています。
一般的な回復アルゴリズムを除外するために、[HS17]で開発された相関保存投影方法を採用します。

要約(オリジナル)

We investigate implications of the (extended) low-degree conjecture (recently formalized in [MW23]) in the context of the symmetric stochastic block model. Assuming the conjecture holds, we establish that no polynomial-time algorithm can weakly recover community labels below the Kesten-Stigum (KS) threshold. In particular, we rule out polynomial-time estimators that, with constant probability, achieve correlation with the true communities that is significantly better than random. Whereas, above the KS threshold, polynomial-time algorithms are known to achieve constant correlation with the true communities with high probability[Mas14,AS15]. To our knowledge, we provide the first rigorous evidence for the sharp transition in recovery rate for polynomial-time algorithms at the KS threshold. Notably, under a stronger version of the low-degree conjecture, our lower bound remains valid even when the number of blocks diverges. Furthermore, our results provide evidence of a computational-to-statistical gap in learning the parameters of stochastic block models. In contrast to prior work, which either (i) rules out polynomial-time algorithms for hypothesis testing with 1-o(1) success probability [Hopkins18, BBK+21a] under the low-degree conjecture, or (ii) rules out low-degree polynomials for learning the edge connection probability matrix [LG23], our approach provides stronger lower bounds on the recovery and learning problem. Our proof combines low-degree lower bounds from [Hopkins18, BBK+21a] with graph splitting and cross-validation techniques. In order to rule out general recovery algorithms, we employ the correlation preserving projection method developed in [HS17].

arxiv情報

著者 Jingqiu Ding,Yiding Hua,Lucas Slot,David Steurer
発行日 2025-04-28 13:50:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CC, cs.LG, math.ST, stat.CO, stat.TH パーマリンク