要約
$ k $ -Meansアルゴリズム(Lloydのアルゴリズム)は、ラベルのないデータをクラスタリングするために広く使用されている方法です。
$ k $ -Meansアルゴリズムの重要なボトルネックは、各反復にはデータポイントの数で時間線形が必要であり、ビッグデータアプリケーションでは高価になる可能性があることです。
これは、量子および量子に触発された古典的アルゴリズムを提案する最近の研究で改善されました。$ k $ -meansアルゴリズムをローカルに近似します。
Kerenidis、Landman、Luongo、およびPrakash、Neurips 2019;
$ Q $ -Means?、Doriguello、Luongo、Tang]を知っていますか?
この作業では、単純なランダム化されたミニバッチ$ k $ meansアルゴリズムと、古典的なアルゴリズムに触発された量子アルゴリズムについて説明します。
以前のアルゴリズムの境界を大幅に改善することが、より悪いケースの保証を証明しています。
私たちの改善は、均一なサンプリングの慎重な使用によるものです。これにより、データノルムベースのサンプリングを使用する以前のアルゴリズムには保存されていない$ k $ -meansの問題の特定の対称性が保持されます。
要約(オリジナル)
The $k$-means algorithm (Lloyd’s algorithm) is a widely used method for clustering unlabeled data. A key bottleneck of the $k$-means algorithm is that each iteration requires time linear in the number of data points, which can be expensive in big data applications. This was improved in recent works proposing quantum and quantum-inspired classical algorithms to approximate the $k$-means algorithm locally, in time depending only logarithmically on the number of data points (along with data dependent parameters) [$q$-means: A quantum algorithm for unsupervised machine learning; Kerenidis, Landman, Luongo, and Prakash, NeurIPS 2019; Do you know what $q$-means?, Doriguello, Luongo, Tang]. In this work, we describe a simple randomized mini-batch $k$-means algorithm and a quantum algorithm inspired by the classical algorithm. We prove worse-case guarantees that significantly improve upon the bounds for previous algorithms. Our improvements are due to a careful use of uniform sampling, which preserves certain symmetries of the $k$-means problem that are not preserved in previous algorithms that use data norm-based sampling.
arxiv情報
著者 | Tyler Chen,Archan Ray,Akshay Seshadri,Dylan Herman,Bao Bach,Pranav Deshpande,Abhishek Som,Niraj Kumar,Marco Pistoia |
発行日 | 2025-04-29 17:51:29+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google