要約
既存の SLAM (Simultaneous Localization and Mapping) アルゴリズムは、深層学習技術を使用して動的オブジェクトを識別することにより、動的環境において顕著な位置特定精度を達成しています。
ただし、通常はリアルタイムで動作するために GPU が必要です。
したがって、この論文では、深層学習手法とカメラ追跡を異なる周波数で完全に並行して実行できるマスク予測メカニズムを組み込むことにより、CPU のみで実行されるオープンソースのリアルタイム動的 SLAM システムを提案します。
当社の SLAM システムはさらに、デュアルステージ オプティカル フロー トラッキング アプローチを導入し、オプティカル フローと ORB 機能のハイブリッド使用を採用し、計算リソースを入力フレームに選択的に割り当てることで効率と堅牢性を向上させます。
以前の方法と比較して、私たちのシステムは、ラップトップ CPU で 56 FPS のトラッキング フレーム レートを達成しながら、動的環境で高い位置特定精度を維持し、ディープ ラーニング方法が GPU サポートなしの動的 SLAM に対して実現可能であることを証明しました。
私たちの知る限り、これはこれを達成した最初の SLAM システムです。
要約(オリジナル)
Existing SLAM (Simultaneous Localization and Mapping) algorithms have achieved remarkable localization accuracy in dynamic environments by using deep learning techniques to identify dynamic objects. However, they usually require GPUs to operate in real-time. Therefore, this paper proposes an open-source real-time dynamic SLAM system that runs solely on CPU by incorporating a mask prediction mechanism, which allows the deep learning method and the camera tracking to run entirely in parallel at different frequencies. Our SLAM system further introduces a dual-stage optical flow tracking approach and employs a hybrid usage of optical flow and ORB features, enhancing efficiency and robustness by selectively allocating computational resources to input frames. Compared with previous methods, our system maintains high localization accuracy in dynamic environments while achieving a tracking frame rate of 56 FPS on a laptop CPU, proving that deep learning methods are feasible for dynamic SLAM without GPU support. To the best of our knowledge, this is the first SLAM system to achieve this.
arxiv情報
著者 | Yuhao Zhang,Mihai Bujanca,Mikel Luján |
発行日 | 2024-09-16 09:33:17+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google