λ: A Benchmark for Data-Efficiency in Long-Horizon Indoor Mobile Manipulation Robotics

要約

長距離モバイル操作タスクを実行することを学ぶことは、家庭および職場の設定でロボット工学を進めるために重要です。
ただし、現在のアプローチは通常、データが効率的であり、効率を評価するために現実的にサイズのベンチマークを必要とする改善されたモデルの必要性を強調しています。
これに対処するために、指示されたアクティビティのモバイル操作ベンチマークのためのLambda({\ lambda})ベンチマーク長型のアクションを紹介します。これは、言語条件付け、マルチルーム、マルチルーム、マルチフロア、マルチフロア、ピックアンドピック、ピックアンドプレイスを使用して、copleasever for copleate for cospoyible for firefibleibleのキャッシュを使用してモデルのデータ効率を評価します。
私たちのベンチマークには、シミュレートされた現実世界の設定におけるリアリズムと多様性を提供する571人の人間が収集したデモが含まれています。
プランナーで生成されたデータとは異なり、これらの軌跡は自然な変動性とリプレイの均等性を提供し、堅牢な学習と評価を確保します。
ラムダを活用して、現在のエンドツーエンドの学習方法と、基礎モデルとタスクとモーションの計画を組み合わせたモジュール式ニューロシンボリックアプローチをベンチマークします。
エンドツーエンドの方法、つまり、前提条件が低い成功率が低い場合、ニューロシンボリック法は大幅に優れており、データが少ないデータが必要になります。

要約(オリジナル)

Learning to execute long-horizon mobile manipulation tasks is crucial for advancing robotics in household and workplace settings. However, current approaches are typically data-inefficient, underscoring the need for improved models that require realistically sized benchmarks to evaluate their efficiency. To address this, we introduce the LAMBDA ({\lambda}) benchmark-Long-horizon Actions for Mobile-manipulation Benchmarking of Directed Activities-which evaluates the data efficiency of models on language-conditioned, long-horizon, multi-room, multi-floor, pick-and-place tasks using a dataset of manageable size, more feasible for collection. Our benchmark includes 571 human-collected demonstrations that provide realism and diversity in simulated and real-world settings. Unlike planner-generated data, these trajectories offer natural variability and replay-verifiability, ensuring robust learning and evaluation. We leverage LAMBDA to benchmark current end-to-end learning methods and a modular neuro-symbolic approaches that combines foundation models with task and motion planning. We find that end-to-end methods-even when pretrained-yield lower success rates, while neuro-symbolic methods perform significantly better and require less data.

arxiv情報

著者 Ahmed Jaafar,Shreyas Sundara Raman,Yichen Wei,Sudarshan Harithas,Sofia Juliani,Anneke Wernerfelt,Benedict Quartey,Ifrah Idrees,Jason Xinyu Liu,Stefanie Tellex
発行日 2025-03-04 17:33:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO パーマリンク