EVEv2: Improved Baselines for Encoder-Free Vision-Language Models

要約

既存のエンコーダーフリーのビジョン言語モデル(VLM)は、エンコーダベースのカウンターパートとのパフォーマンスギャップを急速に狭め、構造的シンプルさと効率的な展開を備えた統一マルチモーダルシステムの有望な可能性を強調しています。
事前に訓練されたビジョンエンコーダー、離散トークナザー、およびミニマリストの視覚層をゼロから使用して、VLM間のパフォーマンスギャップを体系的に明確にし、エンコーダーフリーのVLMの尋問していない特性を深く掘削します。
主流のエンコーダーベースのエンコーダーベースのエンコーダーに匹敵するエンコーダーのないVLMの効率的な戦略を開発します。
詳細な調査の後、エンコーダーのないVLMの新しく改善されたファミリであるEVEV2.0を発売します。
(i)統一されたモデル内でビジョンと言語を適切に分解し、階層的に結び付け、モダリティ間の干渉を減らします。
(ii)適切に設計されたトレーニング戦略により、エンコーダーフリーのVLMの効果的な最適化が可能になります。
広範な評価を通じて、EVEV2.0は、モダリティ全体でデコーダーのみのアーキテクチャを開発するための徹底的な研究を表しており、優れたデータ効率と強力な視覚節能力を実証しています。
コードは、https://github.com/baaivision/eveで公開されています。

要約(オリジナル)

Existing encoder-free vision-language models (VLMs) are rapidly narrowing the performance gap with their encoder-based counterparts, highlighting the promising potential for unified multimodal systems with structural simplicity and efficient deployment. We systematically clarify the performance gap between VLMs using pre-trained vision encoders, discrete tokenizers, and minimalist visual layers from scratch, deeply excavating the under-examined characteristics of encoder-free VLMs. We develop efficient strategies for encoder-free VLMs that rival mainstream encoder-based ones. After an in-depth investigation, we launch EVEv2.0, a new and improved family of encoder-free VLMs. We show that: (i) Properly decomposing and hierarchically associating vision and language within a unified model reduces interference between modalities. (ii) A well-designed training strategy enables effective optimization for encoder-free VLMs. Through extensive evaluation, our EVEv2.0 represents a thorough study for developing a decoder-only architecture across modalities, demonstrating superior data efficiency and strong vision-reasoning capability. Code is publicly available at: https://github.com/baaivision/EVE.

arxiv情報

著者 Haiwen Diao,Xiaotong Li,Yufeng Cui,Yueze Wang,Haoge Deng,Ting Pan,Wenxuan Wang,Huchuan Lu,Xinlong Wang
発行日 2025-02-10 18:59:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク