要約
効率的なビュー計画は、コンピュータービジョンとロボット認識における基本的な課題であり、捜索救助操作から自律ナビゲーションに至るまでのタスクにとって重要です。
サンプリングベースや決定論的な方法を含む古典的なアプローチは、シーン探索のカメラの視点を計画することで有望であることを示していますが、複雑な設定での計算スケーラビリティとソリューションの最適性に苦労することがよくあります。
この研究では、堅牢性とスケーラビリティを維持しながら、パラメーター空間を効率的に調査するために量子特性を活用するビュー計画のためのハイブリッド量子クラシカルフレームワークであるHQC-NBVを紹介します。
多コンポーネントコスト項と、視点パラメーター間の階層依存関係をキャプチャする双方向の交互のエンタングルメントパターンを備えたパラメーター中心の変異アンスツを備えた特定のハミルトニアン定式化を提案します。
包括的な実験は、量子固有のコンポーネントが測定可能なパフォーマンスの利点を提供することを示しています。
古典的な方法と比較して、私たちのアプローチは、多様な環境で最大49.2%高い探査効率を達成しています。
エンタングルメントアーキテクチャとコヒーレンスを提供する用語の分析は、ロボット探査タスクにおける量子アドバンテージのメカニズムに関する洞察を提供します。
この作業は、量子コンピューティングをロボット認識システムに統合する際の重要な進歩を表しており、さまざまなロボットビジョンタスクのパラダイムシフトソリューションを提供します。
要約(オリジナル)
Efficient view planning is a fundamental challenge in computer vision and robotic perception, critical for tasks ranging from search and rescue operations to autonomous navigation. While classical approaches, including sampling-based and deterministic methods, have shown promise in planning camera viewpoints for scene exploration, they often struggle with computational scalability and solution optimality in complex settings. This study introduces HQC-NBV, a hybrid quantum-classical framework for view planning that leverages quantum properties to efficiently explore the parameter space while maintaining robustness and scalability. We propose a specific Hamiltonian formulation with multi-component cost terms and a parameter-centric variational ansatz with bidirectional alternating entanglement patterns that capture the hierarchical dependencies between viewpoint parameters. Comprehensive experiments demonstrate that quantum-specific components provide measurable performance advantages. Compared to the classical methods, our approach achieves up to 49.2% higher exploration efficiency across diverse environments. Our analysis of entanglement architecture and coherence-preserving terms provides insights into the mechanisms of quantum advantage in robotic exploration tasks. This work represents a significant advancement in integrating quantum computing into robotic perception systems, offering a paradigm-shifting solution for various robot vision tasks.
arxiv情報
著者 | Xiaotong Yu,Chang Wen Chen |
発行日 | 2025-05-08 13:05:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google