CGA-PoseNet: Camera Pose Regression via a 1D-Up Approach to Conformal Geometric Algebra

要約

CGA-PoseNet を導入します。CGA-PoseNet は、1D-Up 手法を使用して正角幾何代数 (CGA) を使用し、カメラ ポーズ回帰用のモーターという 1 つの数学的オブジェクトで回転と並進を表します。
RGB フレームの小さなデータセットからカメラのポーズを正しく予測する PoseNet から始めます。
ただし、最先端の方法では、カメラの姿勢の方向成分と並進成分のバランスをとるために、費用のかかる調整が必要です。これは通常、複雑なアドホックな損失関数によって最小化され、場合によっては 3D ポイントも必要になります。
画像だけでなく。
私たちのアプローチには、モーターを介してカメラの位置と向きを統一できるという利点があります。
その結果、ネットワークは、ユークリッド署名を持つ適切に動作する 4D 空間に存在する単一のオブジェクトを検索します。
これは、画像のみのデータセットのケースに対処し、単純な損失関数、つまり予測モーターとグラウンド トゥルース モーターの間の平均二乗誤差 (MSE) を効率的に処理できることを意味します。
非常に単純な問題定式化で、高精度のカメラ ポーズ回帰を達成できることを示します。
この CGA への 1D-Up アプローチを使用して、カメラ ポーズ回帰における並進コンポーネントと方向コンポーネントの間の二分法をコンパクトかつエレガントな方法で克服できます。

要約(オリジナル)

We introduce CGA-PoseNet, which uses the 1D-Up approach to Conformal Geometric Algebra (CGA) to represent rotations and translations with a single mathematical object, the motor, for camera pose regression. We do so starting from PoseNet, which successfully predicts camera poses from small datasets of RGB frames. State-of-the-art methods, however, require expensive tuning to balance the orientational and translational components of the camera pose.This is usually done through complex, ad-hoc loss function to be minimized, and in some cases also requires 3D points as well as images. Our approach has the advantage of unifying the camera position and orientation through the motor. Consequently, the network searches for a single object which lives in a well-behaved 4D space with a Euclidean signature. This means that we can address the case of image-only datasets and work efficiently with a simple loss function, namely the mean squared error (MSE) between the predicted and ground truth motors. We show that it is possible to achieve high accuracy camera pose regression with a significantly simpler problem formulation. This 1D-Up approach to CGA can be employed to overcome the dichotomy between translational and orientational components in camera pose regression in a compact and elegant way.

arxiv情報

著者 Alberto Pepe,Joan Lasenby
発行日 2023-02-10 12:27:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク