要約
タイトル:CAMM:単眼ビデオからカテゴリに依存しないアニメーション可能な3Dモデルを構築するツールの開発
要約:
– 3Dオブジェクトをアニメーション化するためには、滑らかな動きと表面変形を得るために適切なスキニング重みを持つ操作対象オブジェクトの運動学チェーンやスケルトンなどの関節構造が必要です。
– しかしながら、直接ポーズ制御を許す既存のモデルは、特定のオブジェクトカテゴリに限定されたり、特殊な機器で構築されたりしていることが多いです。
– アニメーション可能な3Dモデルを作成するための作業量を減らすため、私たちは、アニメート可能な運動学チェーンを学習し、任意の関節オブジェクトに適用する新しい再構成方法を提案します。
– 私たちの手法は、オブジェクトの形状や基礎構造を事前に知ることなく単眼ビデオ上で操作を行います。
– 私たちの手法は、様々な関節オブジェクトカテゴリで最先端の3D表面再構成手法と同等であり、学習された運動学チェーンの再制御による直接ポーズ操作を可能にします。
要約(オリジナル)
Animating an object in 3D often requires an articulated structure, e.g. a kinematic chain or skeleton of the manipulated object with proper skinning weights, to obtain smooth movements and surface deformations. However, existing models that allow direct pose manipulations are either limited to specific object categories or built with specialized equipment. To reduce the work needed for creating animatable 3D models, we propose a novel reconstruction method that learns an animatable kinematic chain for any articulated object. Our method operates on monocular videos without prior knowledge of the object’s shape or underlying structure. Our approach is on par with state-of-the-art 3D surface reconstruction methods on various articulated object categories while enabling direct pose manipulations by re-posing the learned kinematic chain.
arxiv情報
著者 | Tianshu Kuai,Akash Karthikeyan,Yash Kant,Ashkan Mirzaei,Igor Gilitschenski |
発行日 | 2023-04-14 06:07:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI