Can KAN CANs? Input-convex Kolmogorov-Arnold Networks (KANs) as hyperelastic constitutive artificial neural networks (CANs)

要約

従来の構成モデルは、限られた表現性と一般化可能性を備えた手作りのパラメトリック形式に依存していますが、ニューラルネットワークベースのモデルは複雑な材料の動作をキャプチャできますが、多くの場合解釈可能性がありません。
これらのトレードオフのバランスを取るために、ポリコンベックス高弾性構成法を学習するために、入力コンベックスコルモゴロフアーノルドネットワーク(イカンズ)を提示します。
イカンズはコルモゴロフ・アーノルドの表現を活用し、モデルを豊富な表現力のための訓練可能な単変量スプラインベースの活性化関数の組成に分解します。
Kanアーキテクチャ内にトレーニング可能な入力継続的なスプラインを導入し、物理的に許容できる多型弾性モデルを確保します。
結果のモデルはコンパクトで解釈可能であり、入力導入シンボリック回帰技術を介して分析的構成関係の明示的な抽出を可能にします。
フルフィールドひずみデータと限られたグローバルフォース測定に関する監視されていないトレーニングを通じて、イカンズは多様なひずみ状態で非線形ストレス – ひずみの挙動を正確にキャプチャします。
訓練されたイカン過弾性構成モデルを使用した目に見えない幾何学の有限要素シミュレーションは、フレームワークの堅牢性と一般化能力を確認します。

要約(オリジナル)

Traditional constitutive models rely on hand-crafted parametric forms with limited expressivity and generalizability, while neural network-based models can capture complex material behavior but often lack interpretability. To balance these trade-offs, we present Input-Convex Kolmogorov-Arnold Networks (ICKANs) for learning polyconvex hyperelastic constitutive laws. ICKANs leverage the Kolmogorov-Arnold representation, decomposing the model into compositions of trainable univariate spline-based activation functions for rich expressivity. We introduce trainable input-convex splines within the KAN architecture, ensuring physically admissible polyconvex hyperelastic models. The resulting models are both compact and interpretable, enabling explicit extraction of analytical constitutive relationships through an input-convex symbolic regression techinque. Through unsupervised training on full-field strain data and limited global force measurements, ICKANs accurately capture nonlinear stress-strain behavior across diverse strain states. Finite element simulations of unseen geometries with trained ICKAN hyperelastic constitutive models confirm the framework’s robustness and generalization capability.

arxiv情報

著者 Prakash Thakolkaran,Yaqi Guo,Shivam Saini,Mathias Peirlinck,Benjamin Alheit,Siddhant Kumar
発行日 2025-03-07 17:42:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク