要約
トポロジの最適化はエンジニアリング設計における重要なタスクであり、その目標は、最大のパフォーマンスを得るために所定の空間に材料を最適に配分することです。
深層学習を使用してトポロジー最適化問題を高速化する新しいアプローチである Neural Implicit Topology Optimization (NITO) を紹介します。
NITO は、深層学習ベースのトポロジー最適化において、解像度フリーでドメインに依存しないソリューションを提供する最初のフレームワークの 1 つとして際立っています。
NITO は、SOTA 拡散モデルと比較して構造効率が最大 7 倍優れた構造を 10 分の 1 の時間で合成します。
NITO フレームワークでは、境界点順序不変 MLP (BPOM) という新しい手法を導入し、境界条件を疎かつドメインに依存しない方法で表現し、高価なシミュレーションベースのアプローチから脱却します。
重要なのは、NITO が、畳み込みニューラル ネットワーク (CNN) モデルを固定サイズの構造化ドメインに制限するドメインと解像度の制限、つまりエンジニアリング アプリケーションでの CNN の広範な採用を妨げる制限を回避することです。
この汎用性により、単一の NITO モデルで無数のドメインでソリューションをトレーニングおよび生成できるため、多数のドメイン固有の CNN とその広範なデータセットが不要になります。
NITO は一般化可能であるにもかかわらず、特殊なタスクでも SOTA モデルよりも優れたパフォーマンスを発揮し、一桁小さく、CNN にとって制限となる高解像度でのトレーニングが実質的に可能です。
この多用途性、効率性、パフォーマンスの組み合わせは、暗黙的なフィールドを通じて工学設計の最適化問題の状況を変革するNITOの可能性を強調しています。
要約(オリジナル)
Topology optimization is a critical task in engineering design, where the goal is to optimally distribute material in a given space for maximum performance. We introduce Neural Implicit Topology Optimization (NITO), a novel approach to accelerate topology optimization problems using deep learning. NITO stands out as one of the first frameworks to offer a resolution-free and domain-agnostic solution in deep learning-based topology optimization. NITO synthesizes structures with up to seven times better structural efficiency compared to SOTA diffusion models and does so in a tenth of the time. In the NITO framework, we introduce a novel method, the Boundary Point Order-Invariant MLP (BPOM), to represent boundary conditions in a sparse and domain-agnostic manner, moving away from expensive simulation-based approaches. Crucially, NITO circumvents the domain and resolution limitations that restrict Convolutional Neural Network (CNN) models to a structured domain of fixed size — limitations that hinder the widespread adoption of CNNs in engineering applications. This generalizability allows a single NITO model to train and generate solutions in countless domains, eliminating the need for numerous domain-specific CNNs and their extensive datasets. Despite its generalizability, NITO outperforms SOTA models even in specialized tasks, is an order of magnitude smaller, and is practically trainable at high resolutions that would be restrictive for CNNs. This combination of versatility, efficiency, and performance underlines NITO’s potential to transform the landscape of engineering design optimization problems through implicit fields.
arxiv情報
著者 | Amin Heyrani Nobari,Giorgio Giannone,Lyle Regenwetter,Faez Ahmed |
発行日 | 2024-02-07 18:27:29+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google