要約
機械学習 (ML) は、複雑な回帰および分類タスクに取り組むための強力なツールとして登場しましたが、その成功は多くの場合、トレーニング データの品質にかかっています。
この研究では、出力関数の構造に関するドメイン知識に触発された ML パラダイムを導入します。これは、物理学に基づいた ML に似ていますが、物理法則ではなく確率原理に根ざしています。
提案されたアプローチは、ターゲット変数の確率構造 (累積分布関数など) をトレーニング プロセスに統合します。
この確率的情報は、履歴データから取得されるか、実験計画中に構造信頼性手法を使用して推定されます。
この技術は、ドメイン固有の確率的洞察を学習プロセスに組み込むことにより、モデルの精度を向上させ、過剰適合および過小適合のリスクを軽減します。
回帰、画像ノイズ除去、および分類への応用は、現実世界の問題に対処する際のアプローチの有効性を実証します。
要約(オリジナル)
Machine learning (ML) has emerged as a powerful tool for tackling complex regression and classification tasks, yet its success often hinges on the quality of training data. This study introduces an ML paradigm inspired by domain knowledge of the structure of output function, akin to physics-informed ML, but rooted in probabilistic principles rather than physical laws. The proposed approach integrates the probabilistic structure of the target variable (such as its cumulative distribution function) into the training process. This probabilistic information is obtained from historical data or estimated using structural reliability methods during experimental design. By embedding domain-specific probabilistic insights into the learning process, the technique enhances model accuracy and mitigates risks of overfitting and underfitting. Applications in regression, image denoising, and classification demonstrate the approach’s effectiveness in addressing real-world problems.
arxiv情報
著者 | Mohsen Rashki |
発行日 | 2025-01-09 18:44:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google