要約
人工知能 (AI) および機械学習 (ML) の分野では、限定されたインスタンス $S={(\mathbf{x^{(i) を使用した未知のターゲット関数 $y=f(\mathbf{x})$ の近似
)}},y^{(i)})}$ ($\mathbf{x^{(i)}} \in D$ および $D$ は対象となる領域を表します) が一般的な目的です。
$S$ をトレーニング セットと呼び、新しいインスタンス $\mathbf{x}$ に対してこのターゲット関数を効果的に近似できる低複雑度の数学モデルを特定することを目的としています。
その結果、モデルの汎化能力は別のセット $T=\{\mathbf{x^{(j)}}\} \subset D$ で評価されます。ここで、$T \neq S$ は、多くの場合 $T \cap S となります。
= \emptyset$、トレーニング セットを超えたパフォーマンスを評価します。
ただし、特定のアプリケーションでは、元のドメイン $D$ 内だけでなく、$D$ を含む拡張ドメイン $D’$ 内でも正確な近似が必要です。
これは、近似誤差を最小限に抑えることが重要である新しい構造の設計に関係するシナリオに特に関係します。
たとえば、データ駆動型アプローチを通じて新しい材料を開発する場合、AI/ML システムは代理機能として機能することで、設計プロセスをガイドするための貴重な洞察を提供できます。
その結果、学習されたモデルを使用して、新しい実験室実験の計画を容易にすることができます。
この論文では、加法スプライン モデルを組み込んだ連分数の反復フィッティングに基づく多変量回帰の方法を提案します。
この手法のパフォーマンスを、AdaBoost、カーネル リッジ、線形回帰、Lasso Lars、線形サポート ベクトル回帰、多層パーセプトロン、ランダム フォレスト、確率的勾配降下法、XGBoost などの確立された手法と比較します。
これらの方法を評価するために、私たちは物理化学的特性に基づいて超伝導体の臨界温度を予測するという、この分野の重要な問題に焦点を当てます。
要約(オリジナル)
In the field of Artificial Intelligence (AI) and Machine Learning (ML), the approximation of unknown target functions $y=f(\mathbf{x})$ using limited instances $S={(\mathbf{x^{(i)}},y^{(i)})}$, where $\mathbf{x^{(i)}} \in D$ and $D$ represents the domain of interest, is a common objective. We refer to $S$ as the training set and aim to identify a low-complexity mathematical model that can effectively approximate this target function for new instances $\mathbf{x}$. Consequently, the model’s generalization ability is evaluated on a separate set $T=\{\mathbf{x^{(j)}}\} \subset D$, where $T \neq S$, frequently with $T \cap S = \emptyset$, to assess its performance beyond the training set. However, certain applications require accurate approximation not only within the original domain $D$ but also in an extended domain $D’$ that encompasses $D$. This becomes particularly relevant in scenarios involving the design of new structures, where minimizing errors in approximations is crucial. For example, when developing new materials through data-driven approaches, the AI/ML system can provide valuable insights to guide the design process by serving as a surrogate function. Consequently, the learned model can be employed to facilitate the design of new laboratory experiments. In this paper, we propose a method for multivariate regression based on iterative fitting of a continued fraction, incorporating additive spline models. We compare the performance of our method with established techniques, including AdaBoost, Kernel Ridge, Linear Regression, Lasso Lars, Linear Support Vector Regression, Multi-Layer Perceptrons, Random Forests, Stochastic Gradient Descent, and XGBoost. To evaluate these methods, we focus on an important problem in the field: predicting the critical temperature of superconductors based on physical-chemical characteristics.
arxiv情報
著者 | Pablo Moscato,Mohammad Nazmul Haque,Kevin Huang,Julia Sloan,Jon C. de Oliveira |
発行日 | 2023-07-10 06:38:22+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google