Learning from Hypervectors: A Survey on Hypervector Encoding

要約

超次元コンピューティング (HDC) は、脳の構造を模倣して強力で効率的な処理および学習モデルを提供する新しいコンピューティング パラダイムです。
HDC では、データは、通常 1K ~ 10K の長さのハイパーベクトルと呼ばれる長いベクトルでエンコードされます。
文献には、意図されたアプリケーションに応じて、直交または相関ハイパーベクトルを生成するためのいくつかのエンコード技術が提供されています。
文献における既存の調査は、システム入力、一次計算、最終出力など、HDC システムの全体的な側面に焦点を当てていることがよくあります。
ただし、この研究ではより具体的なアプローチがとられています。
HDC システム入力とハイパーベクトルの生成に重点を置き、ハイパーベクトル エンコード プロセスに直接影響します。
この調査では、さまざまな研究から得られたハイパーベクトル生成のさまざまな方法をまとめ、それらの限界、課題、潜在的な利点を調査します。
この調査の包括的な調査を通じて、読者は HDC のさまざまなエンコーディング タイプを深く理解し、さまざまなアプリケーション向けのハイパーベクトル生成の複雑なプロセスについての洞察を得ることができます。

要約(オリジナル)

Hyperdimensional computing (HDC) is an emerging computing paradigm that imitates the brain’s structure to offer a powerful and efficient processing and learning model. In HDC, the data are encoded with long vectors, called hypervectors, typically with a length of 1K to 10K. The literature provides several encoding techniques to generate orthogonal or correlated hypervectors, depending on the intended application. The existing surveys in the literature often focus on the overall aspects of HDC systems, including system inputs, primary computations, and final outputs. However, this study takes a more specific approach. It zeroes in on the HDC system input and the generation of hypervectors, directly influencing the hypervector encoding process. This survey brings together various methods for hypervector generation from different studies and explores the limitations, challenges, and potential benefits they entail. Through a comprehensive exploration of this survey, readers will acquire a profound understanding of various encoding types in HDC and gain insights into the intricate process of hypervector generation for diverse applications.

arxiv情報

著者 Sercan Aygun,Mehran Shoushtari Moghadam,M. Hassan Najafi,Mohsen Imani
発行日 2023-08-01 17:42:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.ET, cs.LG パーマリンク