要約
ロボットの設計は従来、コストと労働集約的でした。
自動化プロセスの進歩にもかかわらず、物理的に製造可能なロボットを製造しながら広大な設計空間をナビゲートすることは依然として困難です。
ユーザーのテキスト仕様とパフォーマンスの好みを物理的な四足歩行ロボットに変換するフレームワークである Text2Robot を紹介します。
数分以内に、Text2Robot は text-to-3D モデルを使用して、さまざまな形態の強力な初期化を提供できます。
現実世界のエレクトロニクスと製造可能性を明確に考慮して、当社の幾何学的処理アルゴリズムと身体制御の協調最適化により、1 日以内に歩行ロボットが生成されます。
Text2Robot は迅速なプロトタイピングを可能にし、生成モデルを使用したロボット設計の新たな機会を開きます。
要約(オリジナル)
Robot design has traditionally been costly and labor-intensive. Despite advancements in automated processes, it remains challenging to navigate a vast design space while producing physically manufacturable robots. We introduce Text2Robot, a framework that converts user text specifications and performance preferences into physical quadrupedal robots. Within minutes, Text2Robot can use text-to-3D models to provide strong initializations of diverse morphologies. Within a day, our geometric processing algorithms and body-control co-optimization produce a walking robot by explicitly considering real-world electronics and manufacturability. Text2Robot enables rapid prototyping and opens new opportunities for robot design with generative models.
arxiv情報
著者 | Ryan P. Ringel,Zachary S. Charlick,Jiaxun Liu,Boxi Xia,Boyuan Chen |
発行日 | 2024-06-28 14:51:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google