EVOS: Efficient Implicit Neural Training via EVOlutionary Selector

要約

我々は、陰的神経表現(INR)を高速化するための効率的な学習パラダイムであるEVOlutionary Selector (EVOS)を提案する。各反復において全てのサンプルをニューラルネットワークに通す従来のINR学習とは異なり、我々のアプローチは戦略的に選択されたポイントに学習を限定し、冗長なフォワードパスを排除することで計算オーバヘッドを削減する。具体的には、各サンプルを進化過程における個体として扱い、最も適合したものだけが生き残り、トレーニングに含める価値があり、ニューラルネットワークのダイナミクスに合わせて適応的に進化します。これは進化的アルゴリズムと概念的には似ていますが、その目的が異なるため(加速のための選択と反復的な解の最適化)、私たちの文脈に合わせて進化メカニズムを根本的に再定義する必要があります。そこで我々は、EVOSを構成するスパースフィットネス評価、周波数誘導クロスオーバー、拡張不偏突然変異を設計した。これらの構成要素はそれぞれ、計算コストを削減しながらサンプル選択をガイドし、周波数領域のバランスにより性能を向上させ、キャッシュされた評価による選択バイアスを緩和する。広範な実験により、本方法は、追加コストなしに優れた収束性を確保しながら、学習時間を約48%~66%削減することを実証し、最近のサンプリングに基づく戦略の中で最先端の高速化を確立した。

要約(オリジナル)

We propose EVOlutionary Selector (EVOS), an efficient training paradigm for accelerating Implicit Neural Representation (INR). Unlike conventional INR training that feeds all samples through the neural network in each iteration, our approach restricts training to strategically selected points, reducing computational overhead by eliminating redundant forward passes. Specifically, we treat each sample as an individual in an evolutionary process, where only those fittest ones survive and merit inclusion in training, adaptively evolving with the neural network dynamics. While this is conceptually similar to Evolutionary Algorithms, their distinct objectives (selection for acceleration vs. iterative solution optimization) require a fundamental redefinition of evolutionary mechanisms for our context. In response, we design sparse fitness evaluation, frequency-guided crossover, and augmented unbiased mutation to comprise EVOS. These components respectively guide sample selection with reduced computational cost, enhance performance through frequency-domain balance, and mitigate selection bias from cached evaluation. Extensive experiments demonstrate that our method achieves approximately 48%-66% reduction in training time while ensuring superior convergence without additional cost, establishing state-of-the-art acceleration among recent sampling-based strategies.

arxiv情報

著者 Weixiang Zhang,Shuzhao Xie,Chengwei Ren,Siyi Xie,Chen Tang,Shijia Ge,Mingzi Wang,Zhi Wang
発行日 2025-04-04 13:27:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.MM, cs.NE パーマリンク