Revisiting the Test-Time Scaling of o1-like Models: Do they Truly Possess Test-Time Scaling Capabilities?

要約

OpenAIのo1シリーズに代表される大規模言語モデル(LLM)におけるテストタイムスケーリングの登場は、推論中の計算リソースの割り当てをスケーリングすることによって推論能力を進化させました。QwQ、Deepseek-R1(R1)、LIMOのような後継モデルもこれらの進化を再現しているが、これらのモデルが本当にテストタイムスケーリング能力を持っているかどうかは未解明である。本研究では、これらのo1のようなモデルのCoTが長くなっても、一貫して精度が向上するわけではないことを発見した。さらに調査を進めると、この現象はモデルの自己修正能力と密接に関係しており、長いCoTはより多くの自己修正を含み、しばしば性能低下につながることがわかった。次に、QwQ、R1、LIMOで逐次スケーリングと並列スケーリングを比較し、並列スケーリングがより優れたカバレッジとスケーラビリティを達成することを発見した。これらの知見に基づき、並列スケーリング戦略とCoTの長さ特性を組み合わせた手法である最短多数決を提案し、従来の多数決アプローチと比較してモデルのテスト時間スケーラビリティを大幅に改善する。

要約(オリジナル)

The advent of test-time scaling in large language models (LLMs), exemplified by OpenAI’s o1 series, has advanced reasoning capabilities by scaling computational resource allocation during inference. While successors like QwQ, Deepseek-R1 (R1) and LIMO replicate these advancements, whether these models truly possess test-time scaling capabilities remains underexplored. This study found that longer CoTs of these o1-like models do not consistently enhance accuracy; in fact, correct solutions are often shorter than incorrect ones for the same questions. Further investigation shows this phenomenon is closely related to models’ self-revision capabilities – longer CoTs contain more self-revisions, which often lead to performance degradation. We then compare sequential and parallel scaling strategies on QwQ, R1 and LIMO, finding that parallel scaling achieves better coverage and scalability. Based on these insights, we propose Shortest Majority Vote, a method that combines parallel scaling strategies with CoT length characteristics, significantly improving models’ test-time scalability compared to conventional majority voting approaches.

arxiv情報

著者 Zhiyuan Zeng,Qinyuan Cheng,Zhangyue Yin,Yunhua Zhou,Xipeng Qiu
発行日 2025-03-03 15:29:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク