FocusLearn: Fully-Interpretable, High-Performance Modular Neural Networks for Time Series

要約

多変量時系列は、ヘルスケアや気象学から生命科学に至るまで、多くの応用がある。ディープラーニングモデルは時系列に対して優れた予測性能を示しているが、「ブラックボックス」あるいは解釈不可能であるという批判がある。本稿では、多変量時系列予測のための、構造的に解釈可能な新しいモジュラーニューラルネットワークモデルを提案する。リカレントニューラルネットワークがデータの時間依存性を学習する一方で、アテンションベースの特徴選択コンポーネントが最も関連性の高い特徴を選択し、時間依存性の学習に使用される冗長な特徴を抑制する。選択された特徴から独立したモジュール型ディープネットワークが学習され、特徴が結果にどのように影響するかをユーザーに示し、モデルを解釈可能にする。実験結果は、このアプローチが、時系列タスクの回帰と分類の両方において、最先端の解釈可能なNeural Additive Models(NAM)とそのバリエーションを凌駕し、時系列の非解釈可能な手法のトップであるLSTMとXGBoostに匹敵する予測性能を達成できることを示している。

要約(オリジナル)

Multivariate time series have many applications, from healthcare and meteorology to life science. Although deep learning models have shown excellent predictive performance for time series, they have been criticised for being ‘black-boxes’ or non-interpretable. This paper proposes a novel modular neural network model for multivariate time series prediction that is interpretable by construction. A recurrent neural network learns the temporal dependencies in the data while an attention-based feature selection component selects the most relevant features and suppresses redundant features used in the learning of the temporal dependencies. A modular deep network is trained from the selected features independently to show the users how features influence outcomes, making the model interpretable. Experimental results show that this approach can outperform state-of-the-art interpretable Neural Additive Models (NAM) and variations thereof in both regression and classification of time series tasks, achieving a predictive performance that is comparable to the top non-interpretable methods for time series, LSTM and XGBoost.

arxiv情報

著者 Qiqi Su,Christos Kloukinas,Artur d’Avila Garcez
発行日 2024-05-03 16:44:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG パーマリンク