要約
我々は、非線形関数回帰に対する新しいアプローチを提案します。これは、パラメータ空間における複雑な非線形関数回帰問題に、教師付き学習手法を使用して対処する、Mapping-to-Parameter 関数モデルと呼ばれます。
このモデルの中心となるのは、無限次元の関数空間から有限次元のパラメーター空間への関数データのマッピングです。
これは、新しく提案されたフリー ノット配置アルゴリズムである反復ローカル配置アルゴリズムによって決定されるノット分布を使用して、任意の選択された順序で B スプライン基底関数の共通セットを使用して複数の関数を同時に近似することによって実現されます。
事前に定義されたノット数に基づいてノットの位置を均一に分散する従来の等距離ノット配置戦略とは対照的に、私たちが提案するアルゴリズムは、入力または出力関数の局所的な複雑さに従ってノットの位置を決定します。
ノット配置アルゴリズムのパフォーマンスは、単関数近似と多関数近似の両方のコンテキストにおいて堅牢であることが示されています。
さらに、関数対スカラー回帰問題と関数対関数回帰問題の両方を処理する際の、提案された予測モデルの有効性と利点が、いくつかの実際のデータ アプリケーションを通じて、最先端の手法の 4 つのグループと比較して実証されています。
。
要約(オリジナル)
We propose a novel approach to nonlinear functional regression, called the Mapping-to-Parameter function model, which addresses complex and nonlinear functional regression problems in parameter space by employing any supervised learning technique. Central to this model is the mapping of function data from an infinite-dimensional function space to a finite-dimensional parameter space. This is accomplished by concurrently approximating multiple functions with a common set of B-spline basis functions by any chosen order, with their knot distribution determined by the Iterative Local Placement Algorithm, a newly proposed free knot placement algorithm. In contrast to the conventional equidistant knot placement strategy that uniformly distributes knot locations based on a predefined number of knots, our proposed algorithms determine knot location according to the local complexity of the input or output functions. The performance of our knot placement algorithms is shown to be robust in both single-function approximation and multiple-function approximation contexts. Furthermore, the effectiveness and advantage of the proposed prediction model in handling both function-on-scalar regression and function-on-function regression problems are demonstrated through several real data applications, in comparison with four groups of state-of-the-art methods.
arxiv情報
著者 | Chengdong Shi,Ching-Hsun Tseng,Wei Zhao,Xiao-Jun Zeng |
発行日 | 2024-01-26 16:35:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google