要約
拡張現実アセンブリガイダンスは、インテリジェントな製造および医療用途に不可欠であり、操作されたオブジェクトの6DOFポーズの継続的な測定が必要です。
現在の追跡方法は精度と効率性に大きな進歩を遂げていますが、散らかった背景、回転的に対称的なオブジェクト、およびノイズの多いシーケンスを扱うとき、彼らは依然として堅牢性の課題に直面しています。
この論文では、最初に、エラーが発生しやすい輪郭の対応に対処し、ノイズ許容度を向上させる堅牢な輪郭ベースのポーズ追跡方法を提案します。
ファン型の検索戦略を利用して対応を改良し、局所的な輪郭の形状とノイズの不確実性を混合確率分布としてモデル化し、非常に堅牢な輪郭エネルギー機能をもたらします。
第二に、CPUのみの戦略を導入して、回転的に対称的なオブジェクトをより適切に追跡し、まばらな内部の対応を調査することにより局所ミニマを克服する輪郭ベースの方法を支援します。
これは、オフラインでスパースビューポイントテンプレートからインテリアポイントを事前にサンプリングし、DISオプティカルフローアルゴリズムを使用して追跡中に通信を計算することによって達成されます。
最後に、輪郭情報と内部情報を融合するために統一されたエネルギー関数を策定します。これは、再重み付けされた最小二乗アルゴリズムを使用して溶媒がかかります。
パブリックデータセットと実際のシナリオでの実験は、この方法が最先端の単眼追跡方法を大幅に上回り、CPUのみを使用して100以上のFPSを達成できることを示しています。
要約(オリジナル)
Augmented reality assembly guidance is essential for intelligent manufacturing and medical applications, requiring continuous measurement of the 6DoF poses of manipulated objects. Although current tracking methods have made significant advancements in accuracy and efficiency, they still face challenges in robustness when dealing with cluttered backgrounds, rotationally symmetric objects, and noisy sequences. In this paper, we first propose a robust contour-based pose tracking method that addresses error-prone contour correspondences and improves noise tolerance. It utilizes a fan-shaped search strategy to refine correspondences and models local contour shape and noise uncertainty as mixed probability distribution, resulting in a highly robust contour energy function. Secondly, we introduce a CPU-only strategy to better track rotationally symmetric objects and assist the contour-based method in overcoming local minima by exploring sparse interior correspondences. This is achieved by pre-sampling interior points from sparse viewpoint templates offline and using the DIS optical flow algorithm to compute their correspondences during tracking. Finally, we formulate a unified energy function to fuse contour and interior information, which is solvable using a re-weighted least squares algorithm. Experiments on public datasets and real scenarios demonstrate that our method significantly outperforms state-of-the-art monocular tracking methods and can achieve more than 100 FPS using only a CPU.
arxiv情報
著者 | Jixiang Chen,Jing Chen,Kai Liu,Haochen Chang,Shanfeng Fu,Jian Yang |
発行日 | 2025-02-17 16:18:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google