要約
私たちは、Implicit Neural Representation (INR) を高速化するための効率的なトレーニング パラダイムである EVOlutionary Selector (EVOS) を提案します。
各反復でニューラル ネットワークを介してすべてのサンプルをフィードする従来の INR トレーニングとは異なり、私たちのアプローチはトレーニングを戦略的に選択されたポイントに制限し、冗長な前方パスを排除することで計算オーバーヘッドを削減します。
具体的には、各サンプルを進化の過程における個体として扱い、最も適したものだけが生き残り、トレーニングに含めるに値し、ニューラル ネットワークのダイナミクスに合わせて適応的に進化します。
これは概念的には進化的アルゴリズムに似ていますが、その明確な目的 (高速化と反復解の最適化の選択) には、私たちの状況に合わせた進化的メカニズムの根本的な再定義が必要です。
これに応じて、EVOS を構成するためのスパース適応度評価、周波数誘導クロスオーバー、および拡張不偏突然変異を設計します。
これらのコンポーネントはそれぞれ、計算コストを削減してサンプル選択をガイドし、周波数領域のバランスを通じてパフォーマンスを向上させ、キャッシュされた評価による選択バイアスを軽減します。
広範な実験により、私たちの方法が追加コストなしで優れた収束を保証しながらトレーニング時間の約 48% ~ 66% の削減を達成し、最近のサンプリングベースの戦略の中で最先端の高速化を確立していることが実証されました。
要約(オリジナル)
We propose EVOlutionary Selector (EVOS), an efficient training paradigm for accelerating Implicit Neural Representation (INR). Unlike conventional INR training that feeds all samples through the neural network in each iteration, our approach restricts training to strategically selected points, reducing computational overhead by eliminating redundant forward passes. Specifically, we treat each sample as an individual in an evolutionary process, where only those fittest ones survive and merit inclusion in training, adaptively evolving with the neural network dynamics. While this is conceptually similar to Evolutionary Algorithms, their distinct objectives (selection for acceleration vs. iterative solution optimization) require a fundamental redefinition of evolutionary mechanisms for our context. In response, we design sparse fitness evaluation, frequency-guided crossover, and augmented unbiased mutation to comprise EVOS. These components respectively guide sample selection with reduced computational cost, enhance performance through frequency-domain balance, and mitigate selection bias from cached evaluation. Extensive experiments demonstrate that our method achieves approximately 48%-66% reduction in training time while ensuring superior convergence without additional cost, establishing state-of-the-art acceleration among recent sampling-based strategies.
arxiv情報
著者 | Weixiang Zhang,Shuzhao Xie,Chengwei Ren,Siyi Xie,Chen Tang,Shijia Ge,Mingzi Wang,Zhi Wang |
発行日 | 2024-12-13 14:11:42+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google