要約
大規模マルチモーダル モデル (LMM) の最近の進歩により、MathVista などの既存のベンチマークで人間レベルのパフォーマンスに近づくモデルを使用して、ビジュアル コンテキスト内での数学的推論において有望な結果が示されました。
ただし、これらのベンチマークでカバーされる質問の多様性と主題の範囲には大きな制限があることがわかります。
この問題に対処するために、私たちは MATH-Vision (MATH-V) データセットを紹介します。これは、実際の数学コンテストから得た視覚的なコンテキストを備えた、3,040 個の高品質な数学問題を注意深く厳選したコレクションです。
16 の異なる数学分野にまたがり、5 段階の難易度に分けられた当社のデータセットは、LMM の数学的推論能力を評価するための包括的で多様な課題を提供します。
広範な実験を通じて、現在の LMM と人間の MATH-V 上のパフォーマンスとの間に顕著なパフォーマンスのギャップがあることを明らかにし、LMM のさらなる進歩が不可欠であることを強調しています。
さらに、詳細な分類により、LMM の徹底的なエラー分析が可能になり、将来の研究開発の指針となる貴重な洞察が得られます。
プロジェクトは https://mathvision-cuhk.github.io で入手できます。
要約(オリジナル)
Recent advancements in Large Multimodal Models (LMMs) have shown promising results in mathematical reasoning within visual contexts, with models approaching human-level performance on existing benchmarks such as MathVista. However, we observe significant limitations in the diversity of questions and breadth of subjects covered by these benchmarks. To address this issue, we present the MATH-Vision (MATH-V) dataset, a meticulously curated collection of 3,040 high-quality mathematical problems with visual contexts sourced from real math competitions. Spanning 16 distinct mathematical disciplines and graded across 5 levels of difficulty, our dataset provides a comprehensive and diverse set of challenges for evaluating the mathematical reasoning abilities of LMMs. Through extensive experimentation, we unveil a notable performance gap between current LMMs and human performance on MATH-V, underscoring the imperative for further advancements in LMMs. Moreover, our detailed categorization allows for a thorough error analysis of LMMs, offering valuable insights to guide future research and development. The project is available at https://mathvision-cuhk.github.io
arxiv情報
著者 | Ke Wang,Junting Pan,Weikang Shi,Zimu Lu,Mingjie Zhan,Hongsheng Li |
発行日 | 2024-02-22 18:56:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google