Hyperdimensional Vector Tsetlin Machines with Applications to Sequence Learning and Generation

要約

私たちは、計算速度が速く、通常の Tsetlin マシンと競合できる、連続データの学習と生成のための 2 層モデルを構築し、多くの利点を追加します。
超次元ベクトル コンピューティング (HVC) 代数と Tsetlin マシン節構造の使用を通じて、両方の組み合わせが HVC のデータ エンコードとデコードの汎用性を継承し、Tsetlin マシンの高速解釈可能な性質を継承して強力な機械学習モデルを生成することを実証します。
このアプローチは、予測、新しいシーケンスの生成、分類という 2 つの領域に適用されます。
後者については、UCR 時系列アーカイブ全体の結果を導き出し、標準ベンチマークと比較して、この手法が時系列分類においてどの程度競合するかを確認します。

要約(オリジナル)

We construct a two-layered model for learning and generating sequential data that is both computationally fast and competitive with vanilla Tsetlin machines, adding numerous advantages. Through the use of hyperdimensional vector computing (HVC) algebras and Tsetlin machine clause structures, we demonstrate that the combination of both inherits the generality of data encoding and decoding of HVC with the fast interpretable nature of Tsetlin machines to yield a powerful machine learning model. We apply the approach in two areas, namely in forecasting, generating new sequences, and classification. For the latter, we derive results for the entire UCR Time Series Archive and compare with the standard benchmarks to see how well the method competes in time series classification.

arxiv情報

著者 Christian D. Blakely
発行日 2024-08-29 15:28:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク