要約
空力設計の最適化は、自動車の性能と効率を向上させる上で重要な役割を果たします。
この論文では、深層強化学習 (DRL) を使用した自動車設計における空力最適化のための新しいアプローチを紹介します。
従来の最適化手法は、設計空間の複雑さを処理し、設計パラメータと空力性能指標の間の非線形関係を把握する際に課題に直面することがよくあります。
この研究では、DRL を採用してボクセル化されたモデル表現で最適な空力設計戦略を学習することで、これらの課題に対処しています。
提案されたアプローチでは、ボクセル化モデルを利用して車両のジオメトリをボクセルのグリッドに離散化し、空気力学的な流れ場の詳細な表現を可能にします。
次に、近接ポリシー最適化 (PPO) アルゴリズムを使用して DRL エージェントをトレーニングし、抗力、運動エネルギー、ボクセル衝突数に関する車両の設計パラメーターを最適化します。
実験結果は、空力性能において重要な結果を達成する上で、提案されたアプローチの有効性と効率性を実証しています。
この研究結果は、自動車工学における複雑な空力設計の最適化問題に対処するための DRL 技術の可能性を浮き彫りにし、車両の性能、燃費、環境の持続可能性の向上に影響を及ぼします。
要約(オリジナル)
Aerodynamic design optimisation plays a crucial role in improving the performance and efficiency of automotive vehicles. This paper presents a novel approach for aerodynamic optimisation in car design using deep reinforcement learning (DRL). Traditional optimisation methods often face challenges in handling the complexity of the design space and capturing non-linear relationships between design parameters and aerodynamic performance metrics. This study addresses these challenges by employing DRL to learn optimal aerodynamic design strategies in a voxelised model representation. The proposed approach utilises voxelised models to discretise the vehicle geometry into a grid of voxels, allowing for a detailed representation of the aerodynamic flow field. The Proximal Policy Optimisation (PPO) algorithm is then employed to train a DRL agent to optimise the design parameters of the vehicle with respect to drag force, kinetic energy, and voxel collision count. Experimental results demonstrate the effectiveness and efficiency of the proposed approach in achieving significant results in aerodynamic performance. The findings highlight the potential of DRL techniques for addressing complex aerodynamic design optimisation problems in automotive engineering, with implications for improving vehicle performance, fuel efficiency, and environmental sustainability.
arxiv情報
著者 | Jignesh Patel,Yannis Spyridis,Vasileios Argyriou |
発行日 | 2024-05-19 09:19:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google