Decision Tree Search as a Markov Decision Problem

要約

教師あり学習タスクに最適な決定木を見つけることは、大規模に解決するのが難しい組み合わせ問題です。
最近、この問題をマルコフ決定問題 (MDP) として枠組み化し、深層強化学習を使用してスケーリングに取り組むことが提案されました。
残念ながら、これらの方法は現在の分岐結合型の最先端技術と競合できません。
代わりに、情報理論的テスト生成関数を使用して、このような MDP の解像度をスケールすることを提案します。この関数は、すべての状態に対してヒューリスティックかつ動的に、許容されるテスト アクションのセットを少数の適切な候補に制限します。
ソルバーとして、私たちは、私たちのアルゴリズムが分岐限定の代替案と少なくとも競合できることを経験的に示しています。
機械学習ツールとしての私たちのアプローチの主な利点は、事実上追加コストなしで、複雑さとパフォーマンスの複数のトレードオフを解決できることです。
このような一連のソリューションを使用すると、ユーザーは、最適に一般化し、ニーズに最も適した解釈可能レベルを持つツリーを選択できますが、現在の分枝限定方法ではこれは不可能です。

要約(オリジナル)

Finding an optimal decision tree for a supervised learning task is a challenging combinatorial problem to solve at scale. It was recently proposed to frame the problem as a Markov Decision Problem (MDP) and use deep reinforcement learning to tackle scaling. Unfortunately, these methods are not competitive with the current branch-and-bound state-of-the-art. We propose instead to scale the resolution of such MDPs using an information-theoretic tests generating function that heuristically, and dynamically for every state, limits the set of admissible test actions to a few good candidates. As a solver, we show empirically that our algorithm is at the very least competitive with branch-and-bound alternatives. As a machine learning tool, a key advantage of our approach is to solve for multiple complexity-performance trade-offs at virtually no additional cost. With such a set of solutions, a user can then select the tree that generalizes best and which has the interpretability level that best suits their needs, which no current branch-and-bound method allows.

arxiv情報

著者 Hector Kohler,Riad Akrour,Philippe Preux
発行日 2024-01-22 14:53:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク