要約
ロボットのデザインは、伝統的に費用がかかり、労働集約的でした。
自動化されたプロセスの進歩にもかかわらず、物理的に製造可能なロボットを生産しながら、広大な設計スペースをナビゲートすることは困難なままです。
Text2robotを紹介します。これは、ユーザーのテキストの仕様とパフォーマンスの好みを物理的な四肢ロボットに変換するフレームワークです。
数分以内に、Text2robotはテキストから3Dモデルを使用して、多様な形態の強力な初期化を提供できます。
1日以内に、私たちの幾何学的処理アルゴリズムとボディコントロール共同最適化は、現実世界の電子機器と製造可能性を明示的に考慮することにより、ウォーキングロボットを生成します。
Text2robotは、迅速なプロトタイピングを可能にし、生成モデルを使用してロボット設計の新しい機会を開きます。
要約(オリジナル)
Robot design has traditionally been costly and labor-intensive. Despite advancements in automated processes, it remains challenging to navigate a vast design space while producing physically manufacturable robots. We introduce Text2Robot, a framework that converts user text specifications and performance preferences into physical quadrupedal robots. Within minutes, Text2Robot can use text-to-3D models to provide strong initializations of diverse morphologies. Within a day, our geometric processing algorithms and body-control co-optimization produce a walking robot by explicitly considering real-world electronics and manufacturability. Text2Robot enables rapid prototyping and opens new opportunities for robot design with generative models.
arxiv情報
著者 | Ryan P. Ringel,Zachary S. Charlick,Jiaxun Liu,Boxi Xia,Boyuan Chen |
発行日 | 2025-02-26 02:47:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google