要約
私たちは、あらゆるモダリティを理解し、普遍的な表現を学習できるオムニモーダル知能を構築することを提案します。
具体的には、マルチモーダル コンテキスト (MiCo) という名前のスケーラブルな事前トレーニング パラダイムを提案します。これは、事前トレーニング プロセスでモダリティの数とデータ量をモデル パラメーターとともにスケールアップできます。
MiCo を使用すると、事前トレーニングされたモデルは、マルチモーダル学習において重要な創発的能力を示します。この能力は、次のタスクで評価されます: i) 10 の異なるモダリティの単一モダリティ認識ベンチマーク、ii) 検索、質問応答、キャプションの 25 のクロスモダリティ理解タスク
、および iii) 18 のマルチモーダル大規模言語モデルのベンチマーク。
当社のモデルは、最先端のパフォーマンスにおいて 37 の新記録を樹立しました。
私たちの研究がオムニモーダル知能の開発に貢献できることを願っています。
コードとモデルは https://github.com/invictus717/MiCo にあります。
要約(オリジナル)
We propose to build omni-modal intelligence, which is capable of understanding any modality and learning universal representations. In specific, we propose a scalable pretraining paradigm, named Multimodal Context (MiCo), which can scale up the numbers of modalities and amount of data, together with the model parameters, in the pretraining process. With MiCo, the pretrained models show significant emergent abilities in multimodal learning, which are evaluated on the following tasks: i) single-modality perception benchmarks of 10 different modalities, ii) 25 cross-modality understanding tasks of retrieval, question-answering, captioning, and iii) 18 multimodal large language model benchmarks. Our models establish 37 new records for state-of-the-art performance. We hope that our research could contribute to the development of omni-modal intelligence. Code and Models are at https://github.com/invictus717/MiCo
arxiv情報
著者 | Yiyuan Zhang,Handong Li,Jing Liu,Xiangyu Yue |
発行日 | 2024-06-13 17:59:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google