MiniDrive: More Efficient Vision-Language Models with Multi-Level 2D Features as Text Tokens for Autonomous Driving

要約

ビジョン言語モデル (VLM) は、自動運転における汎用のエンドツーエンド モデルとして機能し、質問と回答の対話を通じて予測、計画、認識などのサブタスクを実行します。
ただし、既存の手法のほとんどは、計算コストのかかるビジュアル エンコーダと大規模言語モデル (LLM) に依存しているため、現実世界のシナリオやリアルタイム アプリケーションに展開することが困難になっています。
一方、既存の VLM のほとんどは複数の画像を処理する能力に欠けており、自動運転におけるマルチカメラの認識に適応することが困難になっています。
これらの問題に対処するために、私たちは MiniDrive と呼ばれる新しいフレームワークを提案します。これには、私たちが提案する特徴エンジニアリング専門家混合 (FE-MoE) モジュールと動的命令アダプター (DI-アダプター) が組み込まれています。
FE-MoE は、言語モデルに入力される前に、2D 特徴を視覚的なトークン埋め込みに効果的にマッピングします。
DI アダプターを使用すると、ビジュアル トークンの埋め込みを命令テキストの埋め込みに合わせて動的に変更できるため、以前のアプローチにおける同じ画像に対する静的なビジュアル トークンの埋め込みの問題が解決されます。
以前の製品と比較して、MiniDrive はパラメーター サイズ、浮動小数点演算、および応答効率の点で最先端のパフォーマンスを実現しており、最小バージョンには 83M パラメーターのみが含まれています。

要約(オリジナル)

Vision-language models (VLMs) serve as general-purpose end-to-end models in autonomous driving, performing subtasks such as prediction, planning, and perception through question-and-answer interactions. However, most existing methods rely on computationally expensive visual encoders and large language models (LLMs), making them difficult to deploy in real-world scenarios and real-time applications. Meanwhile, most existing VLMs lack the ability to process multiple images, making it difficult to adapt to multi-camera perception in autonomous driving. To address these issues, we propose a novel framework called MiniDrive, which incorporates our proposed Feature Engineering Mixture of Experts (FE-MoE) module and Dynamic Instruction Adapter (DI-Adapter). The FE-MoE effectively maps 2D features into visual token embeddings before being input into the language model. The DI-Adapter enables the visual token embeddings to dynamically change with the instruction text embeddings, resolving the issue of static visual token embeddings for the same image in previous approaches. Compared to previous works, MiniDrive achieves state-of-the-art performance in terms of parameter size, floating point operations, and response efficiency, with the smallest version containing only 83M parameters.

arxiv情報

著者 Enming Zhang,Xingyuan Dai,Yisheng Lv,Qianghai Miao
発行日 2024-09-11 13:43:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク