DistHD: A Learner-Aware Dynamic Encoding Method for Hyperdimensional Classification

要約

タイトル:DistHD:ハイパー次元分類のための学習者意識ダイナミックエンコーディング方式

要約:

– HDCは、資源制限のあるデバイスのための有望な学習アプローチである。
– HDCでは、学習プロセス中に更新されない静的エンコーダーが使用されているため、適切な精度を得るには非常に高い次元数が必要となり、エンコーディングとトレーニングの効率が大幅に低下する。
– この論文では、DistHDという新しいダイナミックエンコーディングテクニックを提案している。
– 提案されたアルゴリズムDistHDは、分類を誤導し、学習品質を脅かす次元を効果的に識別して再生することができる。
– DistHDは、学習プロセスを加速し、かなり低い次元で目的の精度を達成することに成功した。

要約(オリジナル)

Brain-inspired hyperdimensional computing (HDC) has been recently considered a promising learning approach for resource-constrained devices. However, existing approaches use static encoders that are never updated during the learning process. Consequently, it requires a very high dimensionality to achieve adequate accuracy, severely lowering the encoding and training efficiency. In this paper, we propose DistHD, a novel dynamic encoding technique for HDC adaptive learning that effectively identifies and regenerates dimensions that mislead the classification and compromise the learning quality. Our proposed algorithm DistHD successfully accelerates the learning process and achieves the desired accuracy with considerably lower dimensionality.

arxiv情報

著者 Junyao Wang,Sitao Huang,Mohsen Imani
発行日 2023-04-11 21:18:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.LG パーマリンク