要約
リアルタイム ロボット システムには、高度な認識、計算、およびアクション機能が必要です。
ただし、現在の自律システムの主なボトルネックは、計算能力、エネルギー効率、モデルの決定性の間のトレードオフです。
多くのロボット システムの重要な目的であるワールド モデリングでは、認識、計画、自律操縦、および意思決定機能を備えたエンドツーエンドのロボット システムを構築するための最初のステップとして、占有グリッド マッピング (OGM) が一般的に使用されます。
OGM は環境を個別のセルに分割し、占有率や通過可能性などの属性に確率値を割り当てます。
既存の手法は、従来の手法とニューラル手法の 2 つのカテゴリに分類されます。
従来の手法は緻密な統計計算に依存しているのに対し、ニューラル手法では確率的情報処理にディープラーニングを採用しています。
最近の研究では、認知科学とベクトル シンボリック アーキテクチャの交差点におけるニューラル計算の決定論的理論を定式化しています。
この研究では、ニューラル手法の計算効率の向上とともに、従来の手法の解釈可能性と安定性を維持するシャノンエントロピーの新しいアプリケーションと組み合わせた、フーリエベースの超次元 OGM システム VSA-OGM を提案します。
複数のデータセットにわたって検証された私たちのアプローチは、共変の従来の手法と同様の精度を達成しながら、レイテンシを約 200 分の 1、メモリを 1000 分の 1 に削減します。
不変の従来の方法と比較すると、レイテンシーを 3.7 倍削減しながら、同様の精度値が得られます。
さらに、ドメイン固有のモデルトレーニングの必要性を排除しながら、ニューラル手法と比較して 1.5 倍のレイテンシー削減を達成します。
要約(オリジナル)
Real-time robotic systems require advanced perception, computation, and action capability. However, the main bottleneck in current autonomous systems is the trade-off between computational capability, energy efficiency and model determinism. World modeling, a key objective of many robotic systems, commonly uses occupancy grid mapping (OGM) as the first step towards building an end-to-end robotic system with perception, planning, autonomous maneuvering, and decision making capabilities. OGM divides the environment into discrete cells and assigns probability values to attributes such as occupancy and traversability. Existing methods fall into two categories: traditional methods and neural methods. Traditional methods rely on dense statistical calculations, while neural methods employ deep learning for probabilistic information processing. Recent works formulate a deterministic theory of neural computation at the intersection of cognitive science and vector symbolic architectures. In this study, we propose a Fourier-based hyperdimensional OGM system, VSA-OGM, combined with a novel application of Shannon entropy that retains the interpretability and stability of traditional methods along with the improved computational efficiency of neural methods. Our approach, validated across multiple datasets, achieves similar accuracy to covariant traditional methods while approximately reducing latency by 200x and memory by 1000x. Compared to invariant traditional methods, we see similar accuracy values while reducing latency by 3.7x. Moreover, we achieve 1.5x latency reductions compared to neural methods while eliminating the need for domain-specific model training.
arxiv情報
著者 | Shay Snyder,Andrew Capodieci,David Gorsich,Maryam Parsa |
発行日 | 2024-08-26 14:53:19+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google