Decentralization and Acceleration Enables Large-Scale Bundle Adjustment

要約

タイトル:Decentralization and Acceleration Enables Large-Scale Bundle Adjustment(分散化と加速度による大規模バンドル調整の実現)

要約:

– 大規模なバンドル調整問題に対応するには、データと計算を複数のデバイスに分散する必要がある。
– これまでの中央集権的な方法では、計算や通信のオーバーヘッドが大きく、小規模や中規模の問題しか解決できなかった。
– 本研究では、再投影誤差を再定式化し、異なるデバイスの最適化変数を分離する新しい代理関数を導出することで、完全に分散化された方法を提案する。
– この関数により、主要化最小化技術を使用してバンドル調整を独立した最適化のサブ問題に分解することが可能となり、並列に解決できる。
– ネステロフの加速と適応的リスタートを適用して収束を改善し、その理論的保証を維持する。
– P2P通信が限られていても、本手法は穏やかな条件下で一次的な臨界点への収束が証明されている。
– 公開データセットを用いた広範囲なベンチマークでは、本手法は同じメモリ使用量や通信負荷を持つ分散型ベースラインよりもはるかに速く収束する。また、単一デバイスを使用する中央集権型ベースラインと比較して、より正確な解を提供しながら、Ceresに対して940.7倍、DeepLMに対して175.2倍の高速化が実現される。

要約(オリジナル)

Scaling to arbitrarily large bundle adjustment problems requires data and compute to be distributed across multiple devices. Centralized methods in prior works are only able to solve small or medium size problems due to overhead in computation and communication. In this paper, we present a fully decentralized method that alleviates computation and communication bottlenecks to solve arbitrarily large bundle adjustment problems. We achieve this by reformulating the reprojection error and deriving a novel surrogate function that decouples optimization variables from different devices. This function makes it possible to use majorization minimization techniques and reduces bundle adjustment to independent optimization subproblems that can be solved in parallel. We further apply Nesterov’s acceleration and adaptive restart to improve convergence while maintaining its theoretical guarantees. Despite limited peer-to-peer communication, our method has provable convergence to first-order critical points under mild conditions. On extensive benchmarks with public datasets, our method converges much faster than decentralized baselines with similar memory usage and communication load. Compared to centralized baselines using a single device, our method, while being decentralized, yields more accurate solutions with significant speedups of up to 940.7x over Ceres and 175.2x over DeepLM. Code: https://github.com/facebookresearch/DBA.

arxiv情報

著者 Taosha Fan,Joseph Ortiz,Ming Hsiao,Maurizio Monge,Jing Dong,Todd Murphey,Mustafa Mukadam
発行日 2023-05-11 17:58:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV, cs.RO, math.OC パーマリンク