Des-q: a quantum algorithm to provably speedup retraining of decision trees

要約

デシジョン ツリーは、そのシンプルさと説明可能性により、広く採用されている機械学習モデルです。
ただし、トレーニング データのサイズが大きくなるにつれて、標準的な手法はますます遅くなり、トレーニング サンプルの数に応じて多項式に拡張されます。
この研究では、回帰および二項分類タスク用の決定木を構築および再学習するための新しい量子アルゴリズムである Des-q を紹介します。
データ ストリームが新しいトレーニング サンプルの定期的な少量の増分を生成すると仮定すると、Des-q はツリーの再トレーニング時間を大幅に短縮します。
Des-q は、新しいサンプルを量子アクセス可能なメモリにロードするのに必要な時間を考慮しても、古いサンプルと新しいサンプルの合計数で対数的な複雑さを達成します。
任意のノードからツリーを成長させるアプローチには、区分的線形分割を実行して複数の超平面を生成し、入力特徴空間を個別の領域に分割することが含まれます。
これらの分割に適切なアンカー ポイントを決定するために、Kerenidis らによって導入された q-means アルゴリズムに基づいて、効率的な量子教師ありクラスタリング手法を開発します。
Des-q のシミュレートされたバージョンを複数のデータセットで最先端の古典的な手法と比較してベンチマークし、アルゴリズムが最先端のデシジョン ツリーと同様のパフォーマンスを示しながら、周期ツリーを大幅に高速化していることを観察しました。
再訓練中。

要約(オリジナル)

Decision trees are widely adopted machine learning models due to their simplicity and explainability. However, as training data size grows, standard methods become increasingly slow, scaling polynomially with the number of training examples. In this work, we introduce Des-q, a novel quantum algorithm to construct and retrain decision trees for regression and binary classification tasks. Assuming the data stream produces small, periodic increments of new training examples, Des-q significantly reduces the tree retraining time. Des-q achieves a logarithmic complexity in the combined total number of old and new examples, even accounting for the time needed to load the new samples into quantum-accessible memory. Our approach to grow the tree from any given node involves performing piecewise linear splits to generate multiple hyperplanes, thus partitioning the input feature space into distinct regions. To determine the suitable anchor points for these splits, we develop an efficient quantum-supervised clustering method, building upon the q-means algorithm introduced by Kerenidis et al. We benchmark the simulated version of Des-q against the state-of-the-art classical methods on multiple data sets and observe that our algorithm exhibits similar performance to the state-of-the-art decision trees while significantly speeding up the periodic tree retraining.

arxiv情報

著者 Niraj Kumar,Romina Yalovetzky,Changhao Li,Pierre Minssen,Marco Pistoia
発行日 2025-01-02 17:40:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, quant-ph パーマリンク