要約
新しい自己回帰変圧器ベースのモデルであるRiganythingを提示します。これにより、3Dアセットがジョイント、スケルトントポロジーを確率的に生成し、テンプレートのない方法でスキニングウェイトを割り当てることにより、リグが可能になります。
事前に定義されたスケルトンテンプレートに依存し、ヒューマノイドなどの特定のカテゴリに限定されているほとんどの既存の自動リギングメソッドとは異なり、リガニーは自己回帰の方法でリギングの問題にアプローチし、グローバルな入力形状と以前の予測に基づいて次のジョイントを繰り返し予測します。
通常、自己回帰モデルはシーケンシャルデータを生成するために使用されますが、Riganythingはアプリケーションを拡張して、本質的にツリー構造であるスケルトンを効果的に学習および表現します。
これを達成するために、幅広い最初の検索(BFS)順序でジョイントを整理し、スケルトンを3Dロケーションのシーケンスと親インデックスとして定義できるようにします。
さらに、我々のモデルは、拡散モデリングを活用し、階層内のジョイントの正確で一貫した配置を確保することにより、位置予測の精度を改善します。
This formulation allows the autoregressive model to efficiently capture both spatial and hierarchical relationships within the skeleton.
Riganeththingは、RignetとObjaverseの両方のデータセットでエンドツーエンドの訓練を受けているため、ヒューマノイド、四足動物、海洋生物、昆虫など、多様なオブジェクトタイプ全体で最先端のパフォーマンスを示しています。
generalizability, and efficiency.
詳細については、https://www.liuisabella.com/riganythingをご覧ください。
要約(オリジナル)
We present RigAnything, a novel autoregressive transformer-based model, which makes 3D assets rig-ready by probabilistically generating joints, skeleton topologies, and assigning skinning weights in a template-free manner. Unlike most existing auto-rigging methods, which rely on predefined skeleton template and are limited to specific categories like humanoid, RigAnything approaches the rigging problem in an autoregressive manner, iteratively predicting the next joint based on the global input shape and the previous prediction. While autoregressive models are typically used to generate sequential data, RigAnything extends their application to effectively learn and represent skeletons, which are inherently tree structures. To achieve this, we organize the joints in a breadth-first search (BFS) order, enabling the skeleton to be defined as a sequence of 3D locations and the parent index. Furthermore, our model improves the accuracy of position prediction by leveraging diffusion modeling, ensuring precise and consistent placement of joints within the hierarchy. This formulation allows the autoregressive model to efficiently capture both spatial and hierarchical relationships within the skeleton. Trained end-to-end on both RigNet and Objaverse datasets, RigAnything demonstrates state-of-the-art performance across diverse object types, including humanoids, quadrupeds, marine creatures, insects, and many more, surpassing prior methods in quality, robustness, generalizability, and efficiency. Please check our website for more details: https://www.liuisabella.com/RigAnything.
arxiv情報
著者 | Isabella Liu,Zhan Xu,Wang Yifan,Hao Tan,Zexiang Xu,Xiaolong Wang,Hao Su,Zifan Shi |
発行日 | 2025-02-13 18:59:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google