要約
人間の成長の複雑さと非線形性を捉えるために、いくつかのアプローチが開発されています。
広く使用されているのは、思春期の成長の研究で一般的になっている翻訳と回転(SITAR)モデルによる超賦課です。
SITARは、個人間のばらつきを説明するために、タイミング、サイズ、成長強度の3つの被験者固有のランダム効果を取り入れながら、自然な立方スプライン平均曲線を使用して、母集団の共有成長パターンを表す形状不変性混合効果モデルです。
この作業では、SITARモデルを推定するために深いニューラルネットワーク(ニューラルネットワーク)をBスプラインモデルと統合する自動エンコーダーアーキテクチャに基づいて、監視されたディープラーニングフレームワークを紹介します。
このアプローチでは、エンコーダは各個人のランダム効果を推定し、デコーダーはクラシックシタールモデルと同様のBスプラインに基づいてフィッティングを実行します。
この方法は、ディープシタルモデルと呼びます。
この革新的なアプローチにより、完全なモデルの再推定を必要とせずに、新しい個人が集団に入るランダムな影響の予測を可能にします。
その結果、Deep-Sitarは、成長軌道を予測するための強力なアプローチを提供し、深い学習の柔軟性と効率性を従来の混合効果モデルの解釈可能性と組み合わせます。
要約(オリジナル)
Several approaches have been developed to capture the complexity and nonlinearity of human growth. One widely used is the Super Imposition by Translation and Rotation (SITAR) model, which has become popular in studies of adolescent growth. SITAR is a shape-invariant mixed-effects model that represents the shared growth pattern of a population using a natural cubic spline mean curve while incorporating three subject-specific random effects — timing, size, and growth intensity — to account for variations among individuals. In this work, we introduce a supervised deep learning framework based on an autoencoder architecture that integrates a deep neural network (neural network) with a B-spline model to estimate the SITAR model. In this approach, the encoder estimates the random effects for each individual, while the decoder performs a fitting based on B-splines similar to the classic SITAR model. We refer to this method as the Deep-SITAR model. This innovative approach enables the prediction of the random effects of new individuals entering a population without requiring a full model re-estimation. As a result, Deep-SITAR offers a powerful approach to predicting growth trajectories, combining the flexibility and efficiency of deep learning with the interpretability of traditional mixed-effects models.
arxiv情報
著者 | María Alejandra Hernández,Oscar Rodriguez,Dae-Jin Lee |
発行日 | 2025-05-14 15:55:16+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google