要約
1つのRGB画像からハンドメッシュを再構築することは、他のオブジェクトによってしばしば閉塞されるため、挑戦的なタスクです。
以前の作品のほとんどは、より多くの追加情報を探求し、3D再構成パフォーマンスを改善するための注意メカニズムを採用しようとしますが、計算の複雑さを同時に増加させます。
この作業では、高い計算効率を備えたパフォーマンスを回避するアーキテクチャを実現するために、シンプルだが効果的な3Dハンドメッシュ再構成ネットワーク(つまり、Hands3C)を提案します。
ネットワークでは、効果的な受容フィールドを拡張し、空間ディメンションで手の特徴を抽出し、チャネルの寸法で手の地域的特徴を強化する新しい状態空間空間チャネル注意モジュールを設計します。
これにより、完全で詳細なハンドメッシュを再構築するのに役立ちます。
重いオクルージョン(Freihand、Dexycb、Ho3dなど)に面したよく知られているデータセットで実施された広範な実験は、提案されたHands3Cが最小限のパラメーターを維持しながら最先端のパフォーマンスを達成することを示しています。
要約(オリジナル)
Reconstructing the hand mesh from one single RGB image is a challenging task because hands are often occluded by other objects. Most previous works attempt to explore more additional information and adopt attention mechanisms for improving 3D reconstruction performance, while it would increase computational complexity simultaneously. To achieve a performance-reserving architecture with high computational efficiency, in this work, we propose a simple but effective 3D hand mesh reconstruction network (i.e., HandS3C), which is the first time to incorporate state space model into the task of hand mesh reconstruction. In the network, we design a novel state-space spatial-channel attention module that extends the effective receptive field, extracts hand features in the spatial dimension, and enhances regional features of hands in the channel dimension. This helps to reconstruct a complete and detailed hand mesh. Extensive experiments conducted on well-known datasets facing heavy occlusions (such as FREIHAND, DEXYCB, and HO3D) demonstrate that our proposed HandS3C achieves state-of-the-art performance while maintaining a minimal parameters.
arxiv情報
著者 | Zixun Jiao,Xihan Wang,Zhaoqiang Xia,Lianhe Shao,Quanli Gao |
発行日 | 2025-06-13 14:07:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google