要約
大規模な言語モデル(LLM)は、コヒーレントテキストを生成し、コンテキストを理解し、推論タスクを実行するための強力なツールとして浮上しています。
しかし、彼らは一時的な推論と格闘しているため、イベントシーケンス、期間、時代間の関係などの時間関連情報を処理する必要があります。
これらの機能は、質問応答、スケジューリング、履歴分析などのアプリケーションにとって重要です。
この論文では、タイムライン構造と反復自己反省を組み合わせたマルチステージプロセスを通じてLLMの時間的推論能力を高める新しいフレームワークであるTiserを紹介します。
私たちのアプローチは、テスト時間スケーリングを活用して、推論トレースの長さを拡張し、モデルが複雑な時間的依存性をより効果的にキャプチャできるようにします。
この戦略は、推論の正確性を高めるだけでなく、推論プロセスのトレーサビリティを改善します。
実験結果は、分散除外テストセットを含む複数のベンチマークにわたる最先端のパフォーマンスを示し、Tiserにより、より小さなオープンソースモデルが、挑戦的な時間的推論タスクでより大きな閉鎖重量モデルを上回ることができることを明らかにします。
要約(オリジナル)
Large Language Models (LLMs) have emerged as powerful tools for generating coherent text, understanding context, and performing reasoning tasks. However, they struggle with temporal reasoning, which requires processing time-related information such as event sequencing, durations, and inter-temporal relationships. These capabilities are critical for applications including question answering, scheduling, and historical analysis. In this paper, we introduce TISER, a novel framework that enhances the temporal reasoning abilities of LLMs through a multi-stage process that combines timeline construction with iterative self-reflection. Our approach leverages test-time scaling to extend the length of reasoning traces, enabling models to capture complex temporal dependencies more effectively. This strategy not only boosts reasoning accuracy but also improves the traceability of the inference process. Experimental results demonstrate state-of-the-art performance across multiple benchmarks, including out-of-distribution test sets, and reveal that TISER enables smaller open-source models to surpass larger closed-weight models on challenging temporal reasoning tasks.
arxiv情報
著者 | Adrián Bazaga,Rexhina Blloshmi,Bill Byrne,Adrià de Gispert |
発行日 | 2025-04-07 16:51:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google