要約
本論文では、一変量連続関数をメモリなしで近似するための基底関数としてのコサインについて研究する。この研究では、離散コサイン変換(DCT)を用いる代わりに、近似係数を得るための教師あり学習を研究する。コサイン基底関数の有限ダイナミクスと直交性により、正規化最小二乗法(NLMS)のような単純な勾配アルゴリズムがその恩恵を受けることができ、収束時間と誤差の調整が制御され予測可能である。その単純さゆえに、提案手法は、学習の質対複雑さの点で最良であり、より複雑な教師あり学習システムで使用される魅力的な手法として提示される。シミュレーションにより、本アプローチの性能を示す。本稿は、1973年にNasir AhmedによってDCTが発表されてから50周年を記念するものである。
要約(オリジナル)
This paper studies the cosine as basis function for the approximation of univariate and continuous functions without memory. This work studies a supervised learning to obtain the approximation coefficients, instead of using the Discrete Cosine Transform (DCT). Due to the finite dynamics and orthogonality of the cosine basis functions, simple gradient algorithms, such as the Normalized Least Mean Squares (NLMS), can benefit from it and present a controlled and predictable convergence time and error misadjustment. Due to its simplicity, the proposed technique ranks as the best in terms of learning quality versus complexity, and it is presented as an attractive technique to be used in more complex supervised learning systems. Simulations illustrate the performance of the approach. This paper celebrates the 50th anniversary of the publication of the DCT by Nasir Ahmed in 1973.
arxiv情報
著者 | Ana I. Pérez-Neira,Marc Martinez-Gost,Miguel Ángel Lagunas |
発行日 | 2023-09-01 15:31:26+00:00 |
arxivサイト | arxiv_id(pdf) |