要約
モバイル デバイス上で実行することを目的とした有能なマルチモーダル ビジョン言語モデル (MMVLM) である MobileVLM を紹介します。
これは、モバイル指向の無数のアーキテクチャ設計と技術の融合であり、ゼロからトレーニングされた 1.4B および 2.7B パラメーターのスケールの言語モデルのセットと、事前にトレーニングされたマルチモーダル ビジョン モデルで構成されます。
CLIP ファッション、効率的なプロジェクターを介したクロスモダリティ インタラクション。
MobileVLM をいくつかの典型的な VLM ベンチマークで評価します。
当社のモデルは、いくつかのはるかに大きなモデルと比較して同等のパフォーマンスを示します。
さらに重要なのは、Qualcomm Snapdragon 888 CPU と NVIDIA Jeston Orin GPU の両方で推論速度を測定し、それぞれ 1 秒あたり 21.5 トークンと 65.3 トークンという最先端のパフォーマンスが得られたことです。
私たちのコードは、https://github.com/Meituan-AutoML/MobileVLM で公開されます。
要約(オリジナル)
We present MobileVLM, a competent multimodal vision language model (MMVLM) targeted to run on mobile devices. It is an amalgamation of a myriad of architectural designs and techniques that are mobile-oriented, which comprises a set of language models at the scale of 1.4B and 2.7B parameters, trained from scratch, a multimodal vision model that is pre-trained in the CLIP fashion, cross-modality interaction via an efficient projector. We evaluate MobileVLM on several typical VLM benchmarks. Our models demonstrate on par performance compared with a few much larger models. More importantly, we measure the inference speed on both a Qualcomm Snapdragon 888 CPU and an NVIDIA Jeston Orin GPU, and we obtain state-of-the-art performance of 21.5 tokens and 65.3 tokens per second, respectively. Our code will be made available at: https://github.com/Meituan-AutoML/MobileVLM.
arxiv情報
著者 | Xiangxiang Chu,Limeng Qiao,Xinyang Lin,Shuang Xu,Yang Yang,Yiming Hu,Fei Wei,Xinyu Zhang,Bo Zhang,Xiaolin Wei,Chunhua Shen |
発行日 | 2023-12-30 04:59:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google