Approximate spectral clustering with eigenvector selection and self-tuned $k$

要約

最近出現したスペクトル クラスタリングは、凸性の仮定なしで任意の形状のクラスタを検出することにより、従来のクラスタリング方法を凌駕しています。
残念ながら、計算の複雑さは $O(n^3)$ であり、$n$ が大きくなる可能性がある複数の実際のアプリケーションでは実行不可能でした。
これにより、研究者は近似スペクトル クラスタリング (ASC) を提案するようになります。
ただし、ASC メソッドのほとんどは、クラスター $k$ の数が既知であると想定していました。
実際には、$k$ の手動設定は主観的または時間がかかる可能性があります。
提案されたアルゴリズムには、ASC の 2 つの重要なステップで $k$ を推定するための 2 つの関連性メトリックがあります。
1 つは埋め込み空間にまたがる固有ベクトルを選択するためのもので、もう 1 つはその空間内のクラスターの数を発見するためのものです。
アルゴリズムは、成長ニューラル ガス (GNG) 近似を使用しました。GNG は、入力データ トポロジの保持に優れています。
実験的なセットアップは、提案されたアルゴリズムの効率と、$k$ が手動で設定された同様の方法と競合する能力を示しています。

要約(オリジナル)

The recently emerged spectral clustering surpasses conventional clustering methods by detecting clusters of any shape without the convexity assumption. Unfortunately, with a computational complexity of $O(n^3)$, it was infeasible for multiple real applications, where $n$ could be large. This stimulates researchers to propose the approximate spectral clustering (ASC). However, most of ASC methods assumed that the number of clusters $k$ was known. In practice, manual setting of $k$ could be subjective or time consuming. The proposed algorithm has two relevance metrics for estimating $k$ in two vital steps of ASC. One for selecting the eigenvectors spanning the embedding space, and the other to discover the number of clusters in that space. The algorithm used a growing neural gas (GNG) approximation, GNG is superior in preserving input data topology. The experimental setup demonstrates the efficiency of the proposed algorithm and its ability to compete with similar methods where $k$ was set manually.

arxiv情報

著者 Mashaan Alshammari,Masahiro Takatsuka
発行日 2023-02-22 11:32:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.IR, cs.LG, cs.NE パーマリンク