要約
単眼RGB画像からの正確な人体形状復元は、人間の体型や体格、着用している衣服が異なるため、困難な課題である。本論文では、ShapeBoostという新しい人体形状復元フレームワークを提案する。PCAベースの形状係数の使用に依存する従来のアプローチとは異なり、我々は、人体形状を骨の長さと各パーツスライスの平均幅に分解する新しい人体形状パラメータ化を採用する。このパーツベースのパラメータ化手法は、半解析的な形状再構成アルゴリズムを用いて、柔軟性と妥当性のバランスを実現する。この新しいパラメータ化に基づき、多様な体型と正確な注釈を持つ現実的な画像を生成するために、衣服保持データ拡張モジュールを提案する。実験結果は、多様な体型状況や多様な衣服状況において、我々の手法が他の最先端手法を凌駕することを示している。
要約(オリジナル)
Accurate human shape recovery from a monocular RGB image is a challenging task because humans come in different shapes and sizes and wear different clothes. In this paper, we propose ShapeBoost, a new human shape recovery framework that achieves pixel-level alignment even for rare body shapes and high accuracy for people wearing different types of clothes. Unlike previous approaches that rely on the use of PCA-based shape coefficients, we adopt a new human shape parameterization that decomposes the human shape into bone lengths and the mean width of each part slice. This part-based parameterization technique achieves a balance between flexibility and validity using a semi-analytical shape reconstruction algorithm. Based on this new parameterization, a clothing-preserving data augmentation module is proposed to generate realistic images with diverse body shapes and accurate annotations. Experimental results show that our method outperforms other state-of-the-art methods in diverse body shape situations as well as in varied clothing situations.
arxiv情報
著者 | Siyuan Bian,Jiefeng Li,Jiasheng Tang,Cewu Lu |
発行日 | 2024-03-02 23:40:23+00:00 |
arxivサイト | arxiv_id(pdf) |