Cost-Augmented Monte Carlo Tree Search for LLM-Assisted Planning

要約

LLMSは自由回答形式の推論に優れていますが、彼らはしばしばコストに敏感な計画に苦労し、すべての行動を等しいコストを持っていると扱うか、厳格な予算内にとどまることができません。
この論文では、LLM誘導計画に明示的なコスト認識をもたらす新しいアプローチである、コスト増強モンテカルロツリー検索(CATS)を紹介します。
厳しいコストの制約により、プランナーは実行不可能なソリューションを迅速に識別するようになりますが、緩い制約は最小限のコストの最適化を促進します。
GPT-4.1、Claude-3.7-Sonnet、DeepSeek-R1などのトップLLMを猫のプランナーと対抗して、コストに敏感なシナリオでのパフォーマンスを評価します。
私たちの実験は、GPT-4.1などの生のLLMがしばしば厳しい予算の下でぐらつき、猫は一貫して強力なパフォーマンスを提供し、より高いタスクの成功率とより良いコスト効率を達成することを示唆しています。
CATSは、LLMの推論力を構造化された検索と組み合わせることにより、予算を意識する意思決定のための効果的なソリューションを提供します。

要約(オリジナル)

While LLMs excel at open-ended reasoning, they often struggle with cost-sensitive planning, either treating all actions as having equal cost or failing to stay within strict budgets. In this paper, we introduce Cost-Augmented Monte Carlo Tree Search (CATS), a novel approach that brings explicit cost-awareness into LLM-guided planning. Tight cost constraints push the planner to quickly identify infeasible solutions, while looser constraints encourage optimization for minimal cost. We benchmark top LLMs such as GPT-4.1, Claude-3.7-Sonnet, and DeepSeek-R1, against our CATS planner to evaluate their performance in cost-sensitive scenarios. Our experiments suggest that raw LLMs such as GPT-4.1 often falter under tight budgets, whereas CATS consistently delivers strong performance, achieving higher task success rates and better cost efficiency. CATS provides an effective solution for budget-aware decision-making by combining the reasoning power of LLMs with structured search.

arxiv情報

著者 Zihao Zhang,Fei Liu
発行日 2025-05-20 17:43:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク