Enhancing Interval Type-2 Fuzzy Logic Systems: Learning for Precision and Prediction Intervals

要約

このペーパーでは、学習の課題に対処するために学習間隔タイプ 2 (IT2) ファジー論理システム (FLS) の拡張機能を提案することで、高リスクのシナリオで予測間隔 (PI) を生成するタスクに取り組みます。
これに関連して、我々はまず、Karnik-Mendel (KM) および Nie-Tan (NT) 集合中心計算法に特別な設計柔軟性を提供し、PI 生成の柔軟性を高めます。
これらの機能強化により、非ファジー化段階での KM の柔軟性が向上し、ファジー化段階での NT の柔軟性が向上します。
大規模な学習の課題に対処するために、パラメータ化トリックによって IT2-FLS の制約学習問題を制約のない形式に変換し、深層学習オプティマイザーの直接適用を可能にします。
次元の問題の呪いに対処するために、タイプ 1 FLS 用に提案された高次元高木・菅野・カン (HTSK) 法を IT2-FLS に拡張し、HTSK2 アプローチを作成しました。
さらに、高精度と PI 生成を目的として、強化された IT2-FLS を二重の焦点で学習するフレームワークを導入します。
徹底的な統計結果を通じて、HTSK2 が次元性の課題に効果的に対処し、強化された KM および NT メソッドが学習を改善し、IT2-FLS の不確かさの定量化パフォーマンスを強化したことを明らかにしました。

要約(オリジナル)

In this paper, we tackle the task of generating Prediction Intervals (PIs) in high-risk scenarios by proposing enhancements for learning Interval Type-2 (IT2) Fuzzy Logic Systems (FLSs) to address their learning challenges. In this context, we first provide extra design flexibility to the Karnik-Mendel (KM) and Nie-Tan (NT) center of sets calculation methods to increase their flexibility for generating PIs. These enhancements increase the flexibility of KM in the defuzzification stage while the NT in the fuzzification stage. To address the large-scale learning challenge, we transform the IT2-FLS’s constraint learning problem into an unconstrained form via parameterization tricks, enabling the direct application of deep learning optimizers. To address the curse of dimensionality issue, we expand the High-Dimensional Takagi-Sugeno-Kang (HTSK) method proposed for type-1 FLS to IT2-FLSs, resulting in the HTSK2 approach. Additionally, we introduce a framework to learn the enhanced IT2-FLS with a dual focus, aiming for high precision and PI generation. Through exhaustive statistical results, we reveal that HTSK2 effectively addresses the dimensionality challenge, while the enhanced KM and NT methods improved learning and enhanced uncertainty quantification performances of IT2-FLSs.

arxiv情報

著者 Ata Koklu,Yusuf Guven,Tufan Kumbasar
発行日 2024-04-19 11:37:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク