Impossibility of Depth Reduction in Explainable Clustering

要約

タイトル:解釈可能なクラスタリングにおける深さ削減の不可能性

要約:
– Explainable Clustering(解釈可能なクラスタリング)は、最近注目を集めている
– Dasguptaらは、説明が閾値決定木で表される解釈可能なk-meansおよびk-medianクラスタリング問題の研究を開始した (ICML’20)
– 最近、Laberらは、決定木の深さを興味のある追加の複雑性指標と考えることを提案した (Pattern Recognition’23)
– この研究では、入力点がユークリッド平面にある場合でも、解釈の深さを削減することが、k-meansおよびk-medianコストにおいて無限大の損失を引き起こすことを証明する
– 具体的には、ユークリッド平面Xに対して、深さk-1の決定木が存在し、そのk-means/k-medianコストがXの最適なクラスタリングコストに一致するが、深さk-1より浅いすべての決定木は最適なクラスタリングコストに対して無限大のコストがかかることを示す
– 結果をk-center目的に拡張するが、保証は弱い

要約(オリジナル)

Over the last few years Explainable Clustering has gathered a lot of attention. Dasgupta et al. [ICML’20] initiated the study of explainable k-means and k-median clustering problems where the explanation is captured by a threshold decision tree which partitions the space at each node using axis parallel hyperplanes. Recently, Laber et al. [Pattern Recognition’23] made a case to consider the depth of the decision tree as an additional complexity measure of interest. In this work, we prove that even when the input points are in the Euclidean plane, then any depth reduction in the explanation incurs unbounded loss in the k-means and k-median cost. Formally, we show that there exists a data set X in the Euclidean plane, for which there is a decision tree of depth k-1 whose k-means/k-median cost matches the optimal clustering cost of X, but every decision tree of depth less than k-1 has unbounded cost w.r.t. the optimal cost of clustering. We extend our results to the k-center objective as well, albeit with weaker guarantees.

arxiv情報

著者 Chengyuan Deng,Surya Teja Gavva,Karthik C. S.,Parth Patel,Adarsh Srinivasan
発行日 2023-05-04 14:11:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CC, cs.CG, cs.DS, cs.LG パーマリンク