StackGen: Generating Stable Structures from Silhouettes via Diffusion

要約

人間は、世界を観察し、世界と対話することによって、剛体間の相互作用とその安定性についての直観を自然に得ます。
この直観は、私たちが環境内でオブジェクトを定期的に構成する方法を決定し、単純で日常的なオブジェクトから複雑な構造を構築することを可能にします。
一方、ロボットエージェントは伝統的に、各オブジェクトの詳細な形状を含む世界の明示的なモデルと環境ダイナミクスの分析モデルを必要としますが、これらはスケールすることが難しく、一般化を妨げます。
代わりに、ロボットは、環境内のオブジェクトの安定した相互作用を同様に推論できる直感的な物理学を認識することで恩恵を受けるでしょう。
その目標に向けて、ターゲットのシルエットに一致するビルディング ブロックの多様で安定した構成を生成する拡散モデルである StackGen を提案します。
この方法の機能を実証するために、シミュレーション環境でそれを評価し、ロボット アームを使用して実際の環境に展開し、モデルによって生成された構造を組み立てます。

要約(オリジナル)

Humans naturally obtain intuition about the interactions between and the stability of rigid objects by observing and interacting with the world. It is this intuition that governs the way in which we regularly configure objects in our environment, allowing us to build complex structures from simple, everyday objects. Robotic agents, on the other hand, traditionally require an explicit model of the world that includes the detailed geometry of each object and an analytical model of the environment dynamics, which are difficult to scale and preclude generalization. Instead, robots would benefit from an awareness of intuitive physics that enables them to similarly reason over the stable interaction of objects in their environment. Towards that goal, we propose StackGen, a diffusion model that generates diverse stable configurations of building blocks matching a target silhouette. To demonstrate the capability of the method, we evaluate it in a simulated environment and deploy it in the real setting using a robotic arm to assemble structures generated by the model.

arxiv情報

著者 Luzhe Sun,Takuma Yoneda,Samuel W. Wheeler,Tianchong Jiang,Matthew R. Walter
発行日 2024-09-26 17:41:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク