Smoothness and monotonicity constraints for neural networks using ICEnet

要約

ディープ ニューラル ネットワークは、従来の方法と比較してこれらの技術によって精度が大幅に向上するため、また、これらのモデルが現在使用されている一般化線形モデル (GLM) と密接に関連しているため、保険数理業務で使用するための重要なツールとなっています。
業界で。
保険のリスク要因に関連する GLM パラメーターを滑らかにする、または単調性を示すように制約することは簡単ですが、そのような制約をディープ ニューラル ネットワークに組み込む方法はまだ開発されていません。
保険計理士は商業的または統計的理由からこれらの制約を課すことが多いため、これは保険業務におけるニューラル ネットワークの導入の障壁となっています。
この研究では、ディープ ニューラル ネットワーク モデル内で制約を強制するための新しい方法を紹介し、これらのモデルをトレーニングする方法を示します。
さらに、実世界のデータセットを使用したサンプル アプリケーションも提供します。
私たちの提案が個別条件付き期待値 (ICE) モデルの解釈可能性手法と密接に関連していることを強調するために、提案したメソッドを ICEnet と呼びます。

要約(オリジナル)

Deep neural networks have become an important tool for use in actuarial tasks, due to the significant gains in accuracy provided by these techniques compared to traditional methods, but also due to the close connection of these models to the Generalized Linear Models (GLMs) currently used in industry. Whereas constraining GLM parameters relating to insurance risk factors to be smooth or exhibit monotonicity is trivial, methods to incorporate such constraints into deep neural networks have not yet been developed. This is a barrier for the adoption of neural networks in insurance practice since actuaries often impose these constraints for commercial or statistical reasons. In this work, we present a novel method for enforcing constraints within deep neural network models, and we show how these models can be trained. Moreover, we provide example applications using real-world datasets. We call our proposed method ICEnet to emphasize the close link of our proposal to the individual conditional expectation (ICE) model interpretability technique.

arxiv情報

著者 Ronald Richman,Mario Wüthrich
発行日 2023-05-15 17:14:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク