CAD-Llama: Leveraging Large Language Models for Computer-Aided Design Parametric 3D Model Generation

要約

最近、大規模な言語モデル(LLM)が大幅に成功し、一般的なテキストを超えて生成能力をドメイン固有の領域に拡大することへの関心が高まっています。
この研究では、LLMを使用したコンピューター支援設計(CAD)モデルのパラメトリックシーケンスの生成を調査します。
CADモデルパラメーターは3次元空間の形状と直接相関するため、この努力はLLMを使用してパラメトリック3D形状を作成するための最初のステップを表します。
LLMSの手ごわい生成能力にもかかわらず、これらのモデルは、前処理段階でパラメトリックシーケンスに遭遇したり、3D構造の直接的な認識を持っていないため、このタスクは困難なままです。
これに対処するために、パラメトリック3D CADモデルを生成するために前処理されたLLMを強化するように設計されたフレームワークであるCad-Llamaを提示します。
具体的には、階層的なセマンティック説明を組み込んだパラメトリック3D CADコマンドシーケンスを構造化されたパラメトリックCADコード(SPCC)に変換するために、階層的な注釈パイプラインとコードのような形式を開発します。
さらに、SPCCを使用した適応前の前削除アプローチを提案し、その後、CAD固有のガイドラインに沿った命令チューニングプロセスを提案します。
この方法論は、LLMSにパラメトリックシーケンスに固有の空間知識を装備することを目的としています。
実験結果は、私たちのフレームワークが、以前の自己回帰方法と既存のLLMベースラインを大幅に上回ることを示しています。

要約(オリジナル)

Recently, Large Language Models (LLMs) have achieved significant success, prompting increased interest in expanding their generative capabilities beyond general text into domain-specific areas. This study investigates the generation of parametric sequences for computer-aided design (CAD) models using LLMs. This endeavor represents an initial step towards creating parametric 3D shapes with LLMs, as CAD model parameters directly correlate with shapes in three-dimensional space. Despite the formidable generative capacities of LLMs, this task remains challenging, as these models neither encounter parametric sequences during their pretraining phase nor possess direct awareness of 3D structures. To address this, we present CAD-Llama, a framework designed to enhance pretrained LLMs for generating parametric 3D CAD models. Specifically, we develop a hierarchical annotation pipeline and a code-like format to translate parametric 3D CAD command sequences into Structured Parametric CAD Code (SPCC), incorporating hierarchical semantic descriptions. Furthermore, we propose an adaptive pretraining approach utilizing SPCC, followed by an instruction tuning process aligned with CAD-specific guidelines. This methodology aims to equip LLMs with the spatial knowledge inherent in parametric sequences. Experimental results demonstrate that our framework significantly outperforms prior autoregressive methods and existing LLM baselines.

arxiv情報

著者 Jiahao Li,Weijian Ma,Xueyang Li,Yunzhong Lou,Guichun Zhou,Xiangdong Zhou
発行日 2025-05-07 14:52:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク