要約
大規模な言語モデルは、広範囲にわたる無制限のタスクにわたって優れた普遍的な機能を実証し、その有用性をマルチモーダルな会話を包含するように拡張しました。
しかし、既存の方法では、特に視覚トークンが限られている場合、画像とビデオの両方の理解を効果的に処理する際に課題に直面しています。
この研究では、統一された視覚表現を通じて画像やビデオを含む会話を理解し、参加できるユニファイド ビジョン言語モデルである Chat-UniVi を紹介します。
具体的には、一連の動的なビジュアル トークンを使用して、画像とビデオを均一に表現します。
この表現フレームワークにより、モデルは限られた数のビジュアル トークンを効率的に利用して、画像に必要な空間的詳細とビデオに必要な包括的な時間関係を同時にキャプチャできるようになります。
さらに、マルチスケール表現を活用し、モデルが高レベルの意味概念と低レベルの視覚的詳細の両方を認識できるようにします。
特に、Chat-UniVi は画像とビデオの両方を含む混合データセットでトレーニングされているため、修正を必要とせずに両方のメディアが関係するタスクに直接適用できます。
広範な実験結果により、Chat-UniVi は、画像またはビデオ専用に設計された既存の方法よりも常に優れていることが実証されています。
コードは https://github.com/PKU-YuanGroup/Chat-UniVi で入手できます。
要約(オリジナル)
Large language models have demonstrated impressive universal capabilities across a wide range of open-ended tasks and have extended their utility to encompass multimodal conversations. However, existing methods encounter challenges in effectively handling both image and video understanding, particularly with limited visual tokens. In this work, we introduce Chat-UniVi, a Unified Vision-language model capable of comprehending and engaging in conversations involving images and videos through a unified visual representation. Specifically, we employ a set of dynamic visual tokens to uniformly represent images and videos. This representation framework empowers the model to efficiently utilize a limited number of visual tokens to simultaneously capture the spatial details necessary for images and the comprehensive temporal relationship required for videos. Moreover, we leverage a multi-scale representation, enabling the model to perceive both high-level semantic concepts and low-level visual details. Notably, Chat-UniVi is trained on a mixed dataset containing both images and videos, allowing direct application to tasks involving both mediums without requiring any modifications. Extensive experimental results demonstrate that Chat-UniVi consistently outperforms even existing methods exclusively designed for either images or videos. Code is available at https://github.com/PKU-YuanGroup/Chat-UniVi.
arxiv情報
著者 | Peng Jin,Ryuichi Takanobu,Wancai Zhang,Xiaochun Cao,Li Yuan |
発行日 | 2024-04-05 15:21:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google