Machine Learning Optimized Orthogonal Basis Piecewise Polynomial Approximation

要約

区分多項式 (PP) は、一連の点の形で与えられる位置プロファイルを近似するために、軌道計画などのいくつかの工学分野で利用されます。
Ck 連続性などのドメイン固有の要件を伴う近似ターゲットは方程式系として定式化でき、結果を直接計算できますが、そのような閉形式の解は、多項式の次数、多項式の基数、または加算に関して柔軟性が限られています。
さらなるドメイン固有の要件。
十分に複雑な最適化目標では、勾配降下法などの数値的手法の使用がすぐに必要になります。
勾配降下法は人工ニューラル ネットワーク (ANN) のトレーニングの中心であるため、TensorFlow のような最新の機械学習 (ML) フレームワークには、ANN のトレーニング タスクを超えた幅広い最適化問題に潜在的に適した一連の勾配ベースのオプティマイザーが付属しています。
私たちのアプローチは、PP モデルの多用途性を利用し、それを最新の ML オプティマイザーの可能性と組み合わせて、電子カム設計のコンテキストで 1D 軌道計画における関数近似に使用することです。
PP モデルのモデル パラメーターを最適化するために、ANN の範囲外で、ML フレームワーク TensorFlow の利用可能なオプティマイザーを直接利用します。
この論文では、直交多項式基底が近似と連続性の最適化パフォーマンスの向上にどのように貢献するかを示します。
第一種チェビシェフ多項式を利用して、明らかに改善された収束動作を可能にする新しい正則化アプローチを開発します。
この正則化アプローチを使用すると、近似と連続性の最適化を組み合わせた設定において、関連するすべてのオプティマイザーに対してチェビシェフ基底がべき乗基底よりも優れたパフォーマンスを発揮することを示し、電子カム領域内で提示されたアプローチの有用性を実証します。

要約(オリジナル)

Piecewise Polynomials (PPs) are utilized in several engineering disciplines, like trajectory planning, to approximate position profiles given in the form of a set of points. While the approximation target along with domain-specific requirements, like Ck -continuity, can be formulated as a system of equations and a result can be computed directly, such closed-form solutions posses limited flexibility with respect to polynomial degrees, polynomial bases or adding further domain-specific requirements. Sufficiently complex optimization goals soon call for the use of numerical methods, like gradient descent. Since gradient descent lies at the heart of training Artificial Neural Networks (ANNs), modern Machine Learning (ML) frameworks like TensorFlow come with a set of gradient-based optimizers potentially suitable for a wide range of optimization problems beyond the training task for ANNs. Our approach is to utilize the versatility of PP models and combine it with the potential of modern ML optimizers for the use in function approximation in 1D trajectory planning in the context of electronic cam design. We utilize available optimizers of the ML framework TensorFlow directly, outside of the scope of ANNs, to optimize model parameters of our PP model. In this paper, we show how an orthogonal polynomial basis contributes to improving approximation and continuity optimization performance. Utilizing Chebyshev polynomials of the first kind, we develop a novel regularization approach enabling clearly improved convergence behavior. We show that, using this regularization approach, Chebyshev basis performs better than power basis for all relevant optimizers in the combined approximation and continuity optimization setting and demonstrate usability of the presented approach within the electronic cam domain.

arxiv情報

著者 Hannes Waclawek,Stefan Huber
発行日 2024-03-13 14:34:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク