GIRA: Gaussian Mixture Models for Inference and Robot Autonomy

要約

このペーパーでは、コンパクトな生成モデルを使用した再構成、姿勢推定、占有モデリングのための基本的なロボット工学アルゴリズムを実装するオープンソース フレームワーク GIRA を紹介します。
コンパクト性により、大規模な移動ロボットの展開中に知覚モデルが低帯域幅チャネルを通じて通信できるようにすることで、大規模な知覚が可能になります。
生成特性により、高解像度の再構成機能が提供されるため、小さなものの認識が可能になります。
これらの特性は、複数ロボットの探索や器用な操作など、さまざまなロボット アプリケーションの認識ニーズに対応します。
最先端の知覚システムは、同じ基盤となるセンサー データを再利用する複数の異種パイプラインを介して知覚モデルを構築します。これにより、計算量、冗長性、複雑さが増加します。
GIRA は、ガウス混合モデル (GMM) を使用した統合知覚モデリング フレームワークと、既存の CPU 実装と比較して 10 ~ 100 倍速く GMM を学習する GPU アクセラレーション機能で構成される新しいシステム コントリビューションを提供することで、このギャップを埋めます。
オープンソース化された GMM ベースのフレームワークはほとんどないため、この取り組みはイノベーションを加速し、これらの技術の採用を拡大することを目指しています。

要約(オリジナル)

This paper introduces the open-source framework, GIRA, which implements fundamental robotics algorithms for reconstruction, pose estimation, and occupancy modeling using compact generative models. Compactness enables perception in the large by ensuring that the perceptual models can be communicated through low-bandwidth channels during large-scale mobile robot deployments. The generative property enables perception in the small by providing high-resolution reconstruction capability. These properties address perception needs for diverse robotic applications, including multi-robot exploration and dexterous manipulation. State-of-the-art perception systems construct perceptual models via multiple disparate pipelines that reuse the same underlying sensor data, which leads to increased computation, redundancy, and complexity. GIRA bridges this gap by providing a unified perceptual modeling framework using Gaussian mixture models (GMMs) as well as a novel systems contribution, which consists of GPU-accelerated functions to learn GMMs 10-100x faster compared to existing CPU implementations. Because few GMM-based frameworks are open-sourced, this work seeks to accelerate innovation and broaden adoption of these techniques.

arxiv情報

著者 Kshitij Goel,Wennie Tabib
発行日 2024-03-13 14:03:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク