要約
我々は、3D 生成人工知能とロボットの組み立てを組み合わせることにより、音声を物理的なオブジェクトに変換するシステムを紹介します。
このシステムは自然言語入力を活用して設計と製造をよりアクセスしやすくし、3D モデリングやロボット プログラミングの専門知識を持たない個人でも物理オブジェクトを作成できるようにします。
私たちは、物理的な生産において生成 AI 出力を使用する際の課題 (設計の変動性、製造速度、構造の完全性、材料の無駄など) に対処するために、格子ベースのボクセル コンポーネントの個別のロボットによるアセンブリの利用を提案します。
システムは音声を解釈して 3D オブジェクトを生成し、それらをボクセル コンポーネントに離散化し、最適化されたアセンブリ シーケンスを計算して、ロボット ツールパスを生成します。
結果は、椅子から棚に至るまでのさまざまなオブジェクトの組み立てを通じて実証されます。組み立ては音声によって促され、6 軸ロボット アームを使用して 5 分以内に実現されます。
要約(オリジナル)
We present a system that transforms speech into physical objects by combining 3D generative Artificial Intelligence with robotic assembly. The system leverages natural language input to make design and manufacturing more accessible, enabling individuals without expertise in 3D modeling or robotic programming to create physical objects. We propose utilizing discrete robotic assembly of lattice-based voxel components to address the challenges of using generative AI outputs in physical production, such as design variability, fabrication speed, structural integrity, and material waste. The system interprets speech to generate 3D objects, discretizes them into voxel components, computes an optimized assembly sequence, and generates a robotic toolpath. The results are demonstrated through the assembly of various objects, ranging from chairs to shelves, which are prompted via speech and realized within 5 minutes using a 6-axis robotic arm.
arxiv情報
著者 | Alexander Htet Kyaw,Se Hwan Jeon,Miana Smith,Neil Gershenfeld |
発行日 | 2024-09-27 02:12:56+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google