Transfer Learning Across Fixed-Income Product Classes

要約

さまざまな固定所得製品クラスで割引曲線を転送するためのフレームワークを提案します。
スパースまたはノイズの多いデータから割引曲線を推定する際の課題に動機付けられ、カーネルリッジ回帰(KR)をベクター値設定に拡張し、ベクトル値の繁殖カーネルヒルベルトスペース(RKH)の凸最適化問題を策定します。
ソリューションの各コンポーネントは、特定の製品クラスで暗示される割引曲線に対応しています。
経済原則によって動機付けられた追加の正規化用語を導入し、製品クラス間の広がり曲線の滑らかさを促進し、有効な分離可能なカーネル構造につながることを示します。
主な理論的貢献は、分離可能なカーネルによって誘導されるベクトル値RKHSノルムの分解です。
さらに、ベクター値KRのガウスプロセス解釈を提供し、推定の不確実性の定量化を可能にします。
実例の例は、転送学習が外挿のパフォーマンスを大幅に改善し、単一カーブの推定と比較して信頼区間を強化することを示しています。

要約(オリジナル)

We propose a framework for transfer learning of discount curves across different fixed-income product classes. Motivated by challenges in estimating discount curves from sparse or noisy data, we extend kernel ridge regression (KR) to a vector-valued setting, formulating a convex optimization problem in a vector-valued reproducing kernel Hilbert space (RKHS). Each component of the solution corresponds to the discount curve implied by a specific product class. We introduce an additional regularization term motivated by economic principles, promoting smoothness of spread curves between product classes, and show that it leads to a valid separable kernel structure. A main theoretical contribution is a decomposition of the vector-valued RKHS norm induced by separable kernels. We further provide a Gaussian process interpretation of vector-valued KR, enabling quantification of estimation uncertainty. Illustrative examples demonstrate that transfer learning significantly improves extrapolation performance and tightens confidence intervals compared to single-curve estimation.

arxiv情報

著者 Nicolas Camenzind,Damir Filipovic
発行日 2025-05-12 15:43:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, q-fin.CP, q-fin.MF, stat.ML パーマリンク