要約
代数の複雑さの下限とテンソル分解の間の関連性を動機として、行列乗算の最近の下限の主な要素である Koszul-Young 平坦化を調査します。
このツールに基づいて、最小数のランク 1 項の合計として $n_1 \times n_2 \times n_3$ テンソルを分解し、この分解の一意性を証明するための新しいアルゴリズムを提供します。
$n_1 \to \infty$ および $n_3/n_2 = O(1)$ の $n_1 \le n_2 \le n_3$ の場合、テンソル ランクが $r \le (1-
テンソル成分が一般的に選択されている場合、任意の $\epsilon > 0$ に対して \epsilon)(n_2 + n_3)$ になります。
固定 $\epsilon$ の場合、ランタイムは $n_3$ の多項式になります。
$n_2 = n_3 = n$ の場合、ランクに関する条件は $r \le n$ を必要とする古典的な同時対角化アルゴリズムよりも 2 倍改善され、Koiran (2024) の最近のアルゴリズムも改善されます。
これには $r \le 4n/3$ が必要です。
また、$r \leq 3n/2$ のランク検出を解決する Persu (2018) の博士論文も改良されています。
特に、私たちが考慮するスタイルのフラット化はランク $n_2 + n_3$ を超えることができないことを示すことで、上限を補完します。
さらに、 $n \times n \times n$ テンソルの場合、次数 $d$ 多項式平坦化のさらに一般的なクラスは、定数 $C = C(d)$ のランク $Cn$ を超えることができないことを示します。
これは、テンソル分解の場合、ジェネリック コンポーネントの場合はランダム コンポーネントの場合よりも基本的に難しい可能性があり、高度に過完全な設定でも効率的な分解が可能であることを示唆しています。
要約(オリジナル)
Motivated by connections between algebraic complexity lower bounds and tensor decompositions, we investigate Koszul-Young flattenings, which are the main ingredient in recent lower bounds for matrix multiplication. Based on this tool we give a new algorithm for decomposing an $n_1 \times n_2 \times n_3$ tensor as the sum of a minimal number of rank-1 terms, and certifying uniqueness of this decomposition. For $n_1 \le n_2 \le n_3$ with $n_1 \to \infty$ and $n_3/n_2 = O(1)$, our algorithm is guaranteed to succeed when the tensor rank is bounded by $r \le (1-\epsilon)(n_2 + n_3)$ for an arbitrary $\epsilon > 0$, provided the tensor components are generically chosen. For any fixed $\epsilon$, the runtime is polynomial in $n_3$. When $n_2 = n_3 = n$, our condition on the rank gives a factor-of-2 improvement over the classical simultaneous diagonalization algorithm, which requires $r \le n$, and also improves on the recent algorithm of Koiran (2024) which requires $r \le 4n/3$. It also improves on the PhD thesis of Persu (2018) which solves rank detection for $r \leq 3n/2$. We complement our upper bounds by showing limitations, in particular that no flattening of the style we consider can surpass rank $n_2 + n_3$. Furthermore, for $n \times n \times n$ tensors, we show that an even more general class of degree-$d$ polynomial flattenings cannot surpass rank $Cn$ for a constant $C = C(d)$. This suggests that for tensor decompositions, the case of generic components may be fundamentally harder than that of random components, where efficient decomposition is possible even in highly overcomplete settings.
arxiv情報
著者 | Pravesh K. Kothari,Ankur Moitra,Alexander S. Wein |
発行日 | 2024-11-21 17:41:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google