要約
強化学習(RL)の最近の進歩により、視覚言語モデル(VLM)の推論能力が強化されました。
ただし、より効果的にテスト時間計算をより効果的にスケーリングするためのポリシー探索を強化することは、VLMSでは採用されていないままです。
さらに、VLMは不完全な視覚的知覚に苦労し続け、その後の推論プロセスに影響を与えます。
この目的のために、視覚的知覚と結果として得られる推論パターンにターゲットを絞った多様性を導入するために、クリーンな画像と中程度に歪んだ画像の両方から軌跡を組み合わせたシンプルで効果的なRLアプローチであるNoisyrolloutを提案します。
追加のトレーニングコストがなければ、noisyrolloutは、ビジョン指向の誘導バイアスを組み込むことにより、VLMSの探索機能を強化します。
さらに、Noisyrolloutは、トレーニングよりも歪みの強度を徐々に減らすノイズアニーリングスケジュールを採用しており、トレーニングの安定性とスケーラビリティを後の段階で維持しながら、ノイズの多いシグナルの利益を早期に保証します。
わずか2.1kのトレーニングサンプルで、Noisyrolloutは、推論と認識の両方のタスクにまたがる5つのドメイン外のベンチマークで、オープンソースのRLチューニングモデル間で最先端のパフォーマンスを達成し、同等またはより優れたドメイン内パフォーマンスを維持します。
要約(オリジナル)
Recent advances in reinforcement learning (RL) have strengthened the reasoning capabilities of vision-language models (VLMs). However, enhancing policy exploration to more effectively scale test-time compute remains underexplored in VLMs. In addition, VLMs continue to struggle with imperfect visual perception, which in turn affects the subsequent reasoning process. To this end, we propose NoisyRollout, a simple yet effective RL approach that mixes trajectories from both clean and moderately distorted images to introduce targeted diversity in visual perception and the resulting reasoning patterns. Without additional training cost, NoisyRollout enhances the exploration capabilities of VLMs by incorporating a vision-oriented inductive bias. Furthermore, NoisyRollout employs a noise annealing schedule that gradually reduces distortion strength over training, ensuring benefit from noisy signals early while maintaining training stability and scalability in later stages. With just 2.1K training samples, NoisyRollout achieves state-of-the-art performance among open-source RL-tuned models on 5 out-of-domain benchmarks spanning both reasoning and perception tasks, while preserving comparable or even better in-domain performance.
arxiv情報
著者 | Xiangyan Liu,Jinjie Ni,Zijian Wu,Chao Du,Longxu Dou,Haonan Wang,Tianyu Pang,Michael Qizhe Shieh |
発行日 | 2025-04-17 16:10:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google