Balancing Performance and Efficiency in Zero-shot Robotic Navigation

要約

ロボット工学におけるオブジェクト ゴール ナビゲーション タスクに適用された視覚言語フロンティア マップ (VLFM) の最適化研究を紹介します。
私たちの研究では、さまざまな視覚言語モデル、オブジェクト検出器、セグメンテーション モデル、マルチモーダル理解および視覚的質問応答モジュールの効率とパフォーマンスを評価しています。
Habitat-Matterport 3D データセットの $\textit{val-mini}$ 分割と $\textit{val}$ 分割を使用して、限られた VRAM を備えたデスクトップで実験を実施します。
我々は、成功に重み付けされたパス長を大幅に損失することなく、必要なビデオ メモリを $\textbf{2.3 倍}$ 削減しながら、VLFM BLIP-2 ベースラインを上回る高い成功率 (+1.55%) を達成するソリューションを提案します。
私たちの調査結果は、モデルのパフォーマンスと計算効率のバランスに関する洞察を提供し、リソースが限られた環境における効果的な導入戦略を示唆しています。

要約(オリジナル)

We present an optimization study of the Vision-Language Frontier Maps (VLFM) applied to the Object Goal Navigation task in robotics. Our work evaluates the efficiency and performance of various vision-language models, object detectors, segmentation models, and multi-modal comprehension and Visual Question Answering modules. Using the $\textit{val-mini}$ and $\textit{val}$ splits of Habitat-Matterport 3D dataset, we conduct experiments on a desktop with limited VRAM. We propose a solution that achieves a higher success rate (+1.55%) improving over the VLFM BLIP-2 baseline without substantial success-weighted path length loss while requiring $\textbf{2.3 times}$ less video memory. Our findings provide insights into balancing model performance and computational efficiency, suggesting effective deployment strategies for resource-limited environments.

arxiv情報

著者 Dmytro Kuzmenko,Nadiya Shvai
発行日 2024-06-05 07:31:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク