Decentralization and Acceleration Enables Large-Scale Bundle Adjustment

要約

任意の大きなバンドル調整問題にスケーリングするには、データとコンピューティングを複数のデバイスに分散する必要があります。
従来の集中型手法は、計算と通信のオーバーヘッドのため、小規模または中規模の問題しか解決できませんでした。
この論文では、任意に大規模なバンドル調整問題を解決するために、計算と通信のボトルネックを軽減する完全に分散化された方法を紹介します。
これは、再投影誤差を再公式化し、最適化変数をさまざまなデバイスから切り離す新しい代理関数を導出することによって実現します。
この機能により、メジャー化最小化手法の使用が可能になり、バンドル調整を並列で解決できる独立した最適化部分問題に減らすことができます。
Nesterov の加速と適応再起動をさらに適用して、理論上の保証を維持しながら収束を改善します。
限られたピアツーピア通信にもかかわらず、私たちの方法は穏やかな条件下で一次臨界点に収束することが証明可能です。
公開データセットを使用した広範なベンチマークでは、私たちの手法は、メモリ使用量と通信負荷が同様の分散型ベースラインよりもはるかに速く収束します。
単一デバイスを使用した集中型ベースラインと比較して、私たちの方法は分散型でありながら、Ceres と比較して最大 953.7 倍、DeepLM と比較して最大 174.6 倍という大幅な高速化により、より正確なソリューションをもたらします。
コード: https://joeaortiz.github.io/daba。

要約(オリジナル)

Scaling to arbitrarily large bundle adjustment problems requires data and compute to be distributed across multiple devices. Centralized methods in prior works are only able to solve small or medium size problems due to overhead in computation and communication. In this paper, we present a fully decentralized method that alleviates computation and communication bottlenecks to solve arbitrarily large bundle adjustment problems. We achieve this by reformulating the reprojection error and deriving a novel surrogate function that decouples optimization variables from different devices. This function makes it possible to use majorization minimization techniques and reduces bundle adjustment to independent optimization subproblems that can be solved in parallel. We further apply Nesterov’s acceleration and adaptive restart to improve convergence while maintaining its theoretical guarantees. Despite limited peer-to-peer communication, our method has provable convergence to first-order critical points under mild conditions. On extensive benchmarks with public datasets, our method converges much faster than decentralized baselines with similar memory usage and communication load. Compared to centralized baselines using a single device, our method, while being decentralized, yields more accurate solutions with significant speedups of up to 953.7x over Ceres and 174.6x over DeepLM. Code: https://joeaortiz.github.io/daba.

arxiv情報

著者 Taosha Fan,Joseph Ortiz,Ming Hsiao,Maurizio Monge,Jing Dong,Todd Murphey,Mustafa Mukadam
発行日 2023-08-08 18:50:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO, math.OC パーマリンク