要約
本論文では、SimHandと呼ばれる、類似した手の特徴を共有する野生の手画像から3Dハンドポーズ推定を事前学習するためのフレームワークを紹介する。大規模な画像を用いた事前学習は、様々なタスクにおいて有望な結果を達成しているが、3Dハンドポーズ事前学習のための先行手法は、野生のビデオからアクセス可能な多様なハンド画像の可能性を十分に活用していない。本研究では、スケーラブルな事前学習を実現するために、まず、実写映像から膨大な数の手指画像を収集し、コントラスト学習を用いた事前学習手法を設計する。具体的には、100DOHやEgo4Dなどの最近の人間中心の動画から200万枚以上の手画像を収集する。これらの画像から識別情報を抽出するために、我々は手の類似性(手のポーズが似ている非同一サンプルのペア)に注目する。そして、類似した手のペアを特徴空間に近づける新しい対照学習法を提案する。本手法は、類似サンプルから学習するだけでなく、サンプル間距離に基づいて対比学習損失を適応的に重み付けし、さらなる性能向上をもたらす。我々の実験は、我々の手法が、データ増強により1つの画像から正対を切実に生成する従来の対比学習アプローチを凌駕することを実証する。様々なデータセットにおいて、FreiHandで15%、DexYCBで10%、AssemblyHandsで4%という、最先端の手法(PeCLR)に対する大幅な改善を達成した。 我々のコードはhttps://github.com/ut-vision/SiMHand。
要約(オリジナル)
We present a framework for pre-training of 3D hand pose estimation from in-the-wild hand images sharing with similar hand characteristics, dubbed SimHand. Pre-training with large-scale images achieves promising results in various tasks, but prior methods for 3D hand pose pre-training have not fully utilized the potential of diverse hand images accessible from in-the-wild videos. To facilitate scalable pre-training, we first prepare an extensive pool of hand images from in-the-wild videos and design our pre-training method with contrastive learning. Specifically, we collect over 2.0M hand images from recent human-centric videos, such as 100DOH and Ego4D. To extract discriminative information from these images, we focus on the similarity of hands: pairs of non-identical samples with similar hand poses. We then propose a novel contrastive learning method that embeds similar hand pairs closer in the feature space. Our method not only learns from similar samples but also adaptively weights the contrastive learning loss based on inter-sample distance, leading to additional performance gains. Our experiments demonstrate that our method outperforms conventional contrastive learning approaches that produce positive pairs sorely from a single image with data augmentation. We achieve significant improvements over the state-of-the-art method (PeCLR) in various datasets, with gains of 15% on FreiHand, 10% on DexYCB, and 4% on AssemblyHands. Our code is available at https://github.com/ut-vision/SiMHand.
arxiv情報
著者 | Nie Lin,Takehiko Ohkawa,Yifei Huang,Mingfang Zhang,Minjie Cai,Ming Li,Ryosuke Furuta,Yoichi Sato |
発行日 | 2025-05-05 12:16:10+00:00 |
arxivサイト | arxiv_id(pdf) |