要約
私たちは、高度な画像テキストの理解と構成を可能にするビジョン言語の大規模モデルである InternLM-XComposer を提案します。
私たちのモデルの革新的な性質は、次の 3 つの魅力的な特性によって強調されています。 1) インターリーブされたテキストと画像の構成: InternLM-XComposer は、画像をシームレスに統合する一貫性のある文脈に沿った記事を簡単に生成でき、より魅力的で没入型の読書体験を提供します。
タイトルを入力するだけで、システムが対応する原稿を生成します。
画像によってコンテンツが強調されるテキスト内の領域をインテリジェントに識別し、最も適切な視覚的な候補を自動的に挿入します。
2) 豊富な多言語知識による理解: テキストと画像の理解は、慎重に作成された戦略を使用した広範なマルチモーダルな多言語概念のトレーニングによって強化され、結果として視覚的なコンテンツを深く理解できるようになります。
3) 最先端のパフォーマンス: 当社のモデルは、MME Benchmark、MMBench、MMBench-CN、Seed-Bench、CCBench を含む、視覚言語基礎モデルのさまざまな主流ベンチマークにわたって一貫して最先端の結果を達成しています。
(中国文化のベンチマーク)。
InternLM-XComposer は、高度なテキストと画像の理解と構成をシームレスに融合させ、視覚と言語のインタラクションに革命をもたらし、新しい洞察と機会を提供します。
7B パラメーターを備えた InternLM-XComposer モデル シリーズは、https://github.com/InternLM/InternLM-XComposer で公開されています。
要約(オリジナル)
We propose InternLM-XComposer, a vision-language large model that enables advanced image-text comprehension and composition. The innovative nature of our model is highlighted by three appealing properties: 1) Interleaved Text-Image Composition: InternLM-XComposer can effortlessly generate coherent and contextual articles that seamlessly integrate images, providing a more engaging and immersive reading experience. Simply provide a title, and our system will generate the corresponding manuscript. It can intelligently identify the areas in the text where images would enhance the content and automatically insert the most appropriate visual candidates. 2) Comprehension with Rich Multilingual Knowledge: The text-image comprehension is empowered by training on extensive multi-modal multilingual concepts with carefully crafted strategies, resulting in a deep understanding of visual content. 3) State-of-the-art Performance: Our model consistently achieves state-of-the-art results across various mainstream benchmarks for vision-language foundational models, including MME Benchmark, MMBench, MMBench-CN, Seed-Bench, and CCBench (Chinese Cultural Benchmark). Collectively, InternLM-XComposer seamlessly blends advanced text-image comprehension and composition, revolutionizing vision-language interaction and offering new insights and opportunities. The InternLM-XComposer model series with 7B parameters are publicly available at https://github.com/InternLM/InternLM-XComposer.
arxiv情報
著者 | Pan Zhang,Xiaoyi Dong,Bin Wang,Yuhang Cao,Chao Xu,Linke Ouyang,Zhiyuan Zhao,Shuangrui Ding,Songyang Zhang,Haodong Duan,Hang Yan,Xinyue Zhang,Wei Li,Jingwen Li,Kai Chen,Conghui He,Xingcheng Zhang,Yu Qiao,Dahua Lin,Jiaqi Wang |
発行日 | 2023-09-29 17:55:15+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google