MegBA: A GPU-Based Distributed Library for Large-Scale Bundle Adjustment

要約

大規模なバンドル調整 (BA) には大量のメモリと計算リソースが必要であり、既存の BA ライブラリでは満たすことが困難です。
この論文では、GPU ベースの分散型 BA ライブラリである MegBA を提案します。
MegBA は、大規模な BA 問題を自動的に分割し、サブ問題のソルバーを並列ノードに割り当てることにより、大規模な集約メモリを提供できます。
並列ソルバーは、分散前提条件共役勾配と分散 Schur 消去法を採用しているため、単一ノードで計算される精度に匹敵する効果的な解を効率的に計算できます。
BA 計算を高速化するために、コモディティ GPU で利用可能な高性能プリミティブを使用して、エンドツーエンドの BA 計算を実装します。
MegBA は、既存の一般的な BA ライブラリと互換性のある使いやすい API を公開しています。
実験によると、いくつかの大規模な BA ベンチマークで、MegBA が最先端の BA ライブラリである Ceres (41.45$\times$)、RootBA (64.576$\times$)、DeepLM (6.769$\times$) よりも大幅に優れていることが示されています。
.
MegBA のコードは、https://github.com/MegviiRobot/MegBA で入手できます。

要約(オリジナル)

Large-scale Bundle Adjustment (BA) requires massive memory and computation resources which are difficult to be fulfilled by existing BA libraries. In this paper, we propose MegBA, a GPU-based distributed BA library. MegBA can provide massive aggregated memory by automatically partitioning large BA problems, and assigning the solvers of sub-problems to parallel nodes. The parallel solvers adopt distributed Precondition Conjugate Gradient and distributed Schur Elimination, so that an effective solution, which can match the precision of those computed by a single node, can be efficiently computed. To accelerate BA computation, we implement end-to-end BA computation using high-performance primitives available on commodity GPUs. MegBA exposes easy-to-use APIs that are compatible with existing popular BA libraries. Experiments show that MegBA can significantly outperform state-of-the-art BA libraries: Ceres (41.45$\times$), RootBA (64.576$\times$) and DeepLM (6.769$\times$) in several large-scale BA benchmarks. The code of MegBA is available at https://github.com/MegviiRobot/MegBA.

arxiv情報

著者 Jie Ren,Wenteng Liang,Ran Yan,Luo Mai,Shiwen Liu,Xiao Liu
発行日 2022-08-02 09:20:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク