要約
3Dグラフィックスの編集は、映画制作やゲームデザインなどのアプリケーションでは重要ですが、非常に専門的なドメインの専門知識を必要とする時間のかかるプロセスのままです。
グラフィカルな編集にはさまざまなタスクを実行する必要があり、それぞれが異なるスキルセットを必要とするため、このプロセスの自動化は困難です。
最近、ビジョン言語モデル(VLM)が編集プロセスを自動化するための強力なフレームワークとして浮上していますが、その開発と評価は、人間レベルの知覚を必要とし、現実世界の編集の複雑さを示す包括的なベンチマークの欠如によってボトルネックされています。
この作業では、3Dグラフィックス編集のための最初の包括的なVLMシステムベンチマークであるBlendergymを提示します。
Blendergymは、コードベースの3D再構成タスクを介してVLMシステムを評価します。
クローズドおよびオープンソースのVLMシステムを評価し、最先端のVLMシステムでさえ、人間のブレンダーユーザーにとって比較的簡単なタスクと闘っていることを観察します。
Blendergymによって有効になっているため、推論スケーリング手法がグラフィックスの編集タスクにVLMのパフォーマンスにどのように影響するかを研究します。
特に、我々の調査結果は、生成のスケーリングをガイドするために使用される検証者自体が推論スケーリングによって改善できることを明らかにし、コーディングおよび数学タスクにおけるLLM生成の推論スケーリングに関する最近の洞察を補完します。
さらに、推論計算は均一に効果的ではなく、生成と検証の間に戦略的に分布することで最適化できることを示します。
要約(オリジナル)
3D graphics editing is crucial in applications like movie production and game design, yet it remains a time-consuming process that demands highly specialized domain expertise. Automating this process is challenging because graphical editing requires performing a variety of tasks, each requiring distinct skill sets. Recently, vision-language models (VLMs) have emerged as a powerful framework for automating the editing process, but their development and evaluation are bottlenecked by the lack of a comprehensive benchmark that requires human-level perception and presents real-world editing complexity. In this work, we present BlenderGym, the first comprehensive VLM system benchmark for 3D graphics editing. BlenderGym evaluates VLM systems through code-based 3D reconstruction tasks. We evaluate closed- and open-source VLM systems and observe that even the state-of-the-art VLM system struggles with tasks relatively easy for human Blender users. Enabled by BlenderGym, we study how inference scaling techniques impact VLM’s performance on graphics editing tasks. Notably, our findings reveal that the verifier used to guide the scaling of generation can itself be improved through inference scaling, complementing recent insights on inference scaling of LLM generation in coding and math tasks. We further show that inference compute is not uniformly effective and can be optimized by strategically distributing it between generation and verification.
arxiv情報
著者 | Yunqi Gu,Ian Huang,Jihyeon Je,Guandao Yang,Leonidas Guibas |
発行日 | 2025-04-02 14:51:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google