Decentralization and Acceleration Enables Large-Scale Bundle Adjustment

要約

任意に大きなバンドル調整問題に拡張するには、データと計算を複数のデバイスに分散させる必要があります。先行研究の集中型手法は、計算と通信のオーバーヘッドにより、小・中サイズの問題しか解決できない。本論文では、計算と通信のボトルネックを緩和し、任意に大きなバンドル調整問題を解決する完全分散型手法を提示する。これは、再投影誤差を再定義し、異なるデバイスからの最適化変数を切り離す新しいサロゲート関数を導出することで実現される。この関数により、メジャー化最小化技術を使用することが可能になり、バンドル調整を並行して解くことができる独立した最適化サブ問題に縮小することができます。さらに、Nesterovの加速と適応的再起動を適用し、理論的な保証を維持しながら収束を向上させる。ピアツーピア通信が制限されているにもかかわらず、本手法は穏やかな条件下で一次臨界点への収束が証明可能である。公開データセットを用いた広範なベンチマークにおいて、本手法は、同様のメモリ使用量と通信負荷の分散型ベースラインよりもはるかに速く収束した。単一デバイスを用いた集中型ベースラインと比較して、本手法は分散型でありながら、Ceresの953.7倍、DeepLMの174.6倍という大幅な高速化を実現し、より正確な解を導く。コード: https://github.com/facebookresearch/DABA.

要約(オリジナル)

Scaling to arbitrarily large bundle adjustment problems requires data and compute to be distributed across multiple devices. Centralized methods in prior works are only able to solve small or medium size problems due to overhead in computation and communication. In this paper, we present a fully decentralized method that alleviates computation and communication bottlenecks to solve arbitrarily large bundle adjustment problems. We achieve this by reformulating the reprojection error and deriving a novel surrogate function that decouples optimization variables from different devices. This function makes it possible to use majorization minimization techniques and reduces bundle adjustment to independent optimization subproblems that can be solved in parallel. We further apply Nesterov’s acceleration and adaptive restart to improve convergence while maintaining its theoretical guarantees. Despite limited peer-to-peer communication, our method has provable convergence to first-order critical points under mild conditions. On extensive benchmarks with public datasets, our method converges much faster than decentralized baselines with similar memory usage and communication load. Compared to centralized baselines using a single device, our method, while being decentralized, yields more accurate solutions with significant speedups of up to 953.7x over Ceres and 174.6x over DeepLM. Code: https://github.com/facebookresearch/DABA.

arxiv情報

著者 Taosha Fan,Joseph Ortiz,Ming Hsiao,Maurizio Monge,Jing Dong,Todd Murphey,Mustafa Mukadam
発行日 2023-05-15 15:10:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.RO, math.OC パーマリンク