A Network for structural dense displacement based on 3D deformable mesh model and optical flow

要約

本研究では、単眼カメラによる映像からRC架構構造の変位を認識するネットワークを提案する。
提案されたネットワークは、FlowNet2 と POFRN-Net の 2 つのモジュールで構成されます。
FlowNet2 は、高密度オプティカル フローを生成するために使用され、POFRN-Net は姿勢パラメータ H を抽出するために使用されます。FlowNet2 は、2 つのビデオ フレームを高密度オプティカル フローに変換します。
POFRN-Net は、FlowNet2 から高密度オプティカル フローを入力し、姿勢パラメータ H を出力します。パラメータ H から構造の任意の点の変位を計算できます。高速フーリエ変換 (FFT) を適用して、対応する変位信号から周波数領域信号を取得します。
さらに、この調査では、最初のビデオの 1 階での真実の変位の比較が示されています。
最後に、与えられた 3 つのビデオの RC フレーム構造の 4 つの階における予測変位が、この研究の最後に表示されます。

要約(オリジナル)

This study proposes a Network to recognize displacement of a RC frame structure from a video by a monocular camera. The proposed Network consists of two modules which is FlowNet2 and POFRN-Net. FlowNet2 is used to generate dense optical flow as well as POFRN-Net is to extract pose parameter H. FlowNet2 convert two video frames into dense optical flow. POFRN-Net is inputted dense optical flow from FlowNet2 to output the pose parameter H. The displacement of any points of structure can be calculated from parameter H. The Fast Fourier Transform (FFT) is applied to obtain frequency domain signal from corresponding displacement signal. Furthermore, the comparison of the truth displacement on the First floor of the First video is shown in this study. Finally, the predicted displacements on four floors of RC frame structure of given three videos are exhibited in the last of this study.

arxiv情報

著者 Peimian Du,Qicheng Guo,Yanru Li
発行日 2024-02-09 11:09:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク