要約
具体化されたAIに関連する複数のタスクには、高品質の大規模な明確なオブジェクトが必死に必要です。
明確なオブジェクトを作成するためのほとんどの既存の方法は、データ駆動型またはシミュレーションベースのいずれかであり、トレーニングデータのスケールと品質、またはシミュレーションの忠実度と重労働によって制限されます。
この論文では、手続き上の生成を通じて高忠実度の明確なオブジェクトを合成するための新しい方法である無限のモビリティを提案します。
ユーザーの調査と定量的評価は、この方法が現在の最先端の方法を優れており、物理特性とメッシュ品質の両方で人間が発音したデータセットに匹敵する結果を生成できることを示しています。
さらに、合成データは、生成モデルのトレーニングデータとして使用できることを示し、次のステップスケールアップを可能にします。
コードはhttps://github.com/intern-nexus/infinite-mobilityで入手できます
要約(オリジナル)
Large-scale articulated objects with high quality are desperately needed for multiple tasks related to embodied AI. Most existing methods for creating articulated objects are either data-driven or simulation based, which are limited by the scale and quality of the training data or the fidelity and heavy labour of the simulation. In this paper, we propose Infinite Mobility, a novel method for synthesizing high-fidelity articulated objects through procedural generation. User study and quantitative evaluation demonstrate that our method can produce results that excel current state-of-the-art methods and are comparable to human-annotated datasets in both physics property and mesh quality. Furthermore, we show that our synthetic data can be used as training data for generative models, enabling next-step scaling up. Code is available at https://github.com/Intern-Nexus/Infinite-Mobility
arxiv情報
著者 | Xinyu Lian,Zichao Yu,Ruiming Liang,Yitong Wang,Li Ray Luo,Kaixu Chen,Yuanzhen Zhou,Qihong Tang,Xudong Xu,Zhaoyang Lyu,Bo Dai,Jiangmiao Pang |
発行日 | 2025-03-17 17:53:56+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google