要約
このホワイトペーパーでは、Amazon Robotic Manipulation Benchmark (ARMBench) を紹介します。これは、倉庫でのロボット操作のための大規模なオブジェクト中心のベンチマーク データセットです。
現代の倉庫での運用の自動化には、多種多様なオブジェクト、構造化されていない保管、および動的に変化する在庫を処理するロボット マニピュレーターが必要です。
このような設定は、操作中にオブジェクトの身元、物理的特性、および状態を認識する際に課題をもたらします。
ロボット操作用の既存のデータセットは、限られたオブジェクトのセットを考慮するか、3D モデルを利用して合成シーンを生成しますが、さまざまなオブジェクトのプロパティ、クラッター、相互作用のキャプチャに制限があります。
Amazon 倉庫で収集された大規模なデータセットを提示します。ロボット マニピュレーターを使用して、異種のコンテンツを含むコンテナーからオブジェクトのシンギュレーションを実行します。
ARMBench には、190,000 個以上の固有のオブジェクトに対する 235,000 個以上のピックアンドプレース アクティビティに対応する画像、ビデオ、およびメタデータが含まれています。
データは、操作のさまざまな段階、つまり、ピック前、転送中、および配置後にキャプチャされます。
ベンチマーク タスクは高品質の注釈によって提案され、ベースライン パフォーマンス評価は 3 つの視覚的課題、すなわち 1) クラッタ内のオブジェクトのセグメンテーション、2) オブジェクトの識別、および 3) 欠陥の検出について提示されます。
ARMBench には、http://armbench.com からアクセスできます。
要約(オリジナル)
This paper introduces Amazon Robotic Manipulation Benchmark (ARMBench), a large-scale, object-centric benchmark dataset for robotic manipulation in the context of a warehouse. Automation of operations in modern warehouses requires a robotic manipulator to deal with a wide variety of objects, unstructured storage, and dynamically changing inventory. Such settings pose challenges in perceiving the identity, physical characteristics, and state of objects during manipulation. Existing datasets for robotic manipulation consider a limited set of objects or utilize 3D models to generate synthetic scenes with limitation in capturing the variety of object properties, clutter, and interactions. We present a large-scale dataset collected in an Amazon warehouse using a robotic manipulator performing object singulation from containers with heterogeneous contents. ARMBench contains images, videos, and metadata that corresponds to 235K+ pick-and-place activities on 190K+ unique objects. The data is captured at different stages of manipulation, i.e., pre-pick, during transfer, and after placement. Benchmark tasks are proposed by virtue of high-quality annotations and baseline performance evaluation are presented on three visual perception challenges, namely 1) object segmentation in clutter, 2) object identification, and 3) defect detection. ARMBench can be accessed at http://armbench.com
arxiv情報
著者 | Chaitanya Mitash,Fan Wang,Shiyang Lu,Vikedo Terhuja,Tyler Garaas,Felipe Polido,Manikantan Nambi |
発行日 | 2023-03-29 01:42:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google