DevBench: A multimodal developmental benchmark for language learning

要約

視覚言語モデルと子供たちの学習軌跡はどの程度似ていますか?
最近のモデリング作業では、より少ないデータ、特にマルチモーダルな自然主義データに基づいてトレーニングされたモデルを構築することで、モデルと人間のデータ効率間のギャップを理解しようとしています。
ただし、そのようなモデルは成人レベルのベンチマークで評価されることが多く、テストされる言語能力の範囲は限られており、行動データとの直接比較は行われていません。
DevBench は、子供と大人の両方からの行動データを使用した、語彙、構文、意味論的能力の領域にわたる 7 つの言語評価タスクで構成されるマルチモーダル ベンチマークです。
これらのタスクに関して一連の視覚言語モデルを評価し、精度だけでなく応答パターンに関してモデルと人間を比較します。
タスク全体にわたって、モデルは人間の反応パターンへの近さにおいてばらつきを示し、タスクでより優れたパフォーマンスを発揮するモデルは、人間の行動反応によりよく似ています。
また、トレーニングを通じた OpenCLIP の発達の軌跡も調査し、トレーニングが強化されると成人の反応パターンに近づくことがわかりました。
したがって、DevBench は、モデルを人間の言語開発と比較するためのベンチマークを提供します。
これらの比較は、モデルと人間の言語学習プロセスがどのように分岐するかを明らかにし、言語モデルを改善するための入り口点についての洞察を提供します。

要約(オリジナル)

How (dis)similar are the learning trajectories of vision-language models and children? Recent modeling work has attempted to understand the gap between models’ and humans’ data efficiency by constructing models trained on less data, especially multimodal naturalistic data. However, such models are often evaluated on adult-level benchmarks, with limited breadth in language abilities tested, and without direct comparison to behavioral data. We introduce DevBench, a multimodal benchmark comprising seven language evaluation tasks spanning the domains of lexical, syntactic, and semantic ability, with behavioral data from both children and adults. We evaluate a set of vision-language models on these tasks, comparing models and humans not only on accuracy but on their response patterns. Across tasks, models exhibit variation in their closeness to human response patterns, and models that perform better on a task also more closely resemble human behavioral responses. We also examine the developmental trajectory of OpenCLIP over training, finding that greater training results in closer approximations to adult response patterns. DevBench thus provides a benchmark for comparing models to human language development. These comparisons highlight ways in which model and human language learning processes diverge, providing insight into entry points for improving language models.

arxiv情報

著者 Alvin Wei Ming Tan,Sunny Yu,Bria Long,Wanjing Anya Ma,Tonya Murray,Rebecca D. Silverman,Jason D. Yeatman,Michael C. Frank
発行日 2024-06-14 17:49:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク