要約
k$-Clusteringは、$mathbb{R}^d$における$k$-medianや$k$-meansなど、機械学習の基礎となる問題である。古典的な設定では、カージナリティ$n$のデータセットに対して、ほぼ線形時間の近似アルゴリズムが知られていたが、サブリニアタイムの量子アルゴリズムを見つけることは未解決である。我々は、$mathbb{R}^d$の$k$-クラスタリングのコアセットを$tilde{O}( \sqrt{nk}d^{3/2})$ query complexityで見つける量子アルゴリズムを与える。我々のコアセットは、入力サイズを$n$から$mathrm{poly}(kepsilon^{-1}d)$に縮小するので、既存のクラスタリングの$α$近似アルゴリズムがその上で実行でき、$(1 + \epsilon)$α$近似をもたらす。これにより、最終的に様々な$k$-クラスタリング近似アルゴリズムが2次的に高速化される。このアルゴリズムは、量子アルゴリズムが$k$-クラスタリングに対して$O(1)$近接を達成するためには、$Omega(Γsqrt{nk})$問い合わせをしなければならないという、ほぼ一致する下界で補完される。
要約(オリジナル)
$k$-Clustering in $\mathbb{R}^d$ (e.g., $k$-median and $k$-means) is a fundamental machine learning problem. While near-linear time approximation algorithms were known in the classical setting for a dataset with cardinality $n$, it remains open to find sublinear-time quantum algorithms. We give quantum algorithms that find coresets for $k$-clustering in $\mathbb{R}^d$ with $\tilde{O}(\sqrt{nk}d^{3/2})$ query complexity. Our coreset reduces the input size from $n$ to $\mathrm{poly}(k\epsilon^{-1}d)$, so that existing $\alpha$-approximation algorithms for clustering can run on top of it and yield $(1 + \epsilon)\alpha$-approximation. This eventually yields a quadratic speedup for various $k$-clustering approximation algorithms. We complement our algorithm with a nearly matching lower bound, that any quantum algorithm must make $\Omega(\sqrt{nk})$ queries in order to achieve even $O(1)$-approximation for $k$-clustering.
arxiv情報
| 著者 | Yecheng Xue,Xiaoyu Chen,Tongyang Li,Shaofeng H. -C. Jiang |
| 発行日 | 2023-06-05 12:22:46+00:00 |
| arxivサイト | arxiv_id(pdf) |