Neural Scaling Laws for Embodied AI

要約

スケーリングの法則は、言語モデリングやコンピューター ビジョンなどの機械学習ドメイン全体で目覚ましい進歩をもたらしました。
しかし、この分野での機械学習の使用が急速に増加しているにもかかわらず、身体化された AI およびロボット工学におけるスケーリング則の探求は限られています。
この論文では、ロボット基盤モデル (RFM) のスケーリング則とロボット タスクにおける LLM の使用を定量化する最初の研究を紹介します。
198 件の研究論文にわたるメタ分析を通じて、コンピューティング、モデル サイズ、トレーニング データ量などの重要な要素が、さまざまなロボット タスク全体でモデルのパフォーマンスにどのような影響を与えるかを分析します。
私たちの調査結果では、ロボット工学における RFM と LLM の両方にスケーリングの法則が適用され、リソースが増加するにつれてパフォーマンスが一貫して向上することが確認されました。
RFM のべき乗則係数はロボット工学における LLM の係数と非常に一致しており、コンピュータ ビジョンで見られる係数に似ており、言語ドメインにおける LLM の係数を上回っています。
また、これらの係数はタスクの複雑さによって変化し、なじみのあるタスクよりもなじみのないタスクの方が効率的に拡張できることにも注目し、大規模で多様なデータセットの必要性を強調しています。
さらに、身体化された AI には標準化されたベンチマークが存在しないことを強調します。
ほとんどの研究は利益の逓減を示しており、高いパフォーマンスを達成するには多大なリソースが必要であり、データと計算の制限による課題を引き起こしていることを示唆しています。
最後に、モデルがスケールするにつれて、特にデータとモデルのサイズに関連した新しい機能の出現が観察されます。

要約(オリジナル)

Scaling laws have driven remarkable progress across machine learning domains like language modeling and computer vision. However, the exploration of scaling laws in embodied AI and robotics has been limited, despite the rapidly increasing usage of machine learning in this field. This paper presents the first study to quantify scaling laws for Robot Foundation Models (RFMs) and the use of LLMs in robotics tasks. Through a meta-analysis spanning 198 research papers, we analyze how key factors like compute, model size, and training data quantity impact model performance across various robotic tasks. Our findings confirm that scaling laws apply to both RFMs and LLMs in robotics, with performance consistently improving as resources increase. The power law coefficients for RFMs closely match those of LLMs in robotics, resembling those found in computer vision and outperforming those for LLMs in the language domain. We also note that these coefficients vary with task complexity, with familiar tasks scaling more efficiently than unfamiliar ones, emphasizing the need for large and diverse datasets. Furthermore, we highlight the absence of standardized benchmarks in embodied AI. Most studies indicate diminishing returns, suggesting that significant resources are necessary to achieve high performance, posing challenges due to data and computational limitations. Finally, as models scale, we observe the emergence of new capabilities, particularly related to data and model size.

arxiv情報

著者 Sebastian Sartor,Neil Thompson
発行日 2024-05-22 21:22:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク