One Rank at a Time: Cascading Error Dynamics in Sequential Learning

要約

複雑なタスクがよりシンプルで階層的なコンポーネントに分解される順次学習は、AIのパラダイムとして浮上しています。
このホワイトペーパーでは、ランク1サブスペースを順番に学習するときのエラーがどのように伝播するかに特に焦点を当てた、低ランク線形回帰のレンズを介して順次学習を見ています。
学習プロセスを一連のランク1推定問題に分解する分析フレームワークを提示します。そこでは、各推定は以前のステップの精度に依存します。
私たちの貢献は、このシーケンシャルプロセスにおけるエラー伝播の特性評価であり、たとえば、計算予算が限られているため、エラーがどのようにエラーがどのようにモデルの精度に影響するかについての境界を確立します。
これらのエラーは、アルゴリズムの設計と安定性保証の両方に影響を与え、予測可能な方法で悪化することを証明します。

要約(オリジナル)

Sequential learning — where complex tasks are broken down into simpler, hierarchical components — has emerged as a paradigm in AI. This paper views sequential learning through the lens of low-rank linear regression, focusing specifically on how errors propagate when learning rank-1 subspaces sequentially. We present an analysis framework that decomposes the learning process into a series of rank-1 estimation problems, where each subsequent estimation depends on the accuracy of previous steps. Our contribution is a characterization of the error propagation in this sequential process, establishing bounds on how errors — e.g., due to limited computational budgets and finite precision — affect the overall model accuracy. We prove that these errors compound in predictable ways, with implications for both algorithmic design and stability guarantees.

arxiv情報

著者 Mahtab Alizadeh Vandchali,Fangshuo,Liao,Anastasios Kyrillidis
発行日 2025-05-28 17:16:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, math.OC パーマリンク