Close-up View synthesis by Interpolating Optical Flow

要約

仮想視点は、仮想ナビゲーションの新しい技術として認識されていますが、深度情報の不足と不明瞭なカメラ パラメーターのため、まだサポートされていません。
この論文では、クローズアップ仮想ビューを実現する方法を提案します。この方法は、オプティカル フローのみを使用して視差効果を構築し、深度センサーを使用せずに疑似 3D 投影を実現します。
オプティカルフローの比例補間により任意の仮想視点を得る双方向オプティカルフロー手法を開発する。
さらに、オプティカル フロー値の独創的な適用により、あらゆる隅でレンズを伸ばすことにより、鮮明で視覚的に忠実な拡大結果を実現します。これにより、Google ストリート ビュー システムの視点の拡大と遷移による視覚的な歪みや画像のぼやけが克服されます。

要約(オリジナル)

The virtual viewpoint is perceived as a new technique in virtual navigation, as yet not supported due to the lack of depth information and obscure camera parameters. In this paper, a method for achieving close-up virtual view is proposed and it only uses optical flow to build parallax effects to realize pseudo 3D projection without using depth sensor. We develop a bidirectional optical flow method to obtain any virtual viewpoint by proportional interpolation of optical flow. Moreover, with the ingenious application of the optical-flow-value, we achieve clear and visual-fidelity magnified results through lens stretching in any corner, which overcomes the visual distortion and image blur through viewpoint magnification and transition in Google Street View system.

arxiv情報

著者 Xinyi Bai,Ze Wang,Lu Yang,Hong Cheng
発行日 2023-07-12 04:40:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO, I.4.0, I.4.1, I.4.5 パーマリンク