要約
複数の接続コンポーネントを持つスパニング ツリーの変形である、最小重みスパニング フォレストに基づく微分可能なクラスタリング手法を導入します。
私たちの方法は、勾配計算を平滑化して効率的に行うために、線形プログラムの解の確率的摂動に依存しています。
これにより、エンドツーエンドのトレーニング可能なパイプラインにクラスタリングを含めることができます。
高ノイズのデータセットや困難なジオメトリなどの困難な設定でも、私たちの手法が良好に機能することを示します。
また、この操作を使用して部分クラスタリング データから効率的に学習するためのアドホック損失も定式化します。
教師ありタスクおよび半教師ありタスクのいくつかの実世界のデータセットでそのパフォーマンスを実証します。
要約(オリジナル)
We introduce a differentiable clustering method based on minimum-weight spanning forests, a variant of spanning trees with several connected components. Our method relies on stochastic perturbations of solutions of linear programs, for smoothing and efficient gradient computations. This allows us to include clustering in end-to-end trainable pipelines. We show that our method performs well even in difficult settings, such as datasets with high noise and challenging geometries. We also formulate an ad hoc loss to efficiently learn from partial clustering data using this operation. We demonstrate its performance on several real world datasets for supervised and semi-supervised tasks.
arxiv情報
著者 | Lawrence Stewart,Francis S Bach,Felipe Llinares López,Quentin Berthet |
発行日 | 2023-05-30 17:29:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google