要約
現在の機械学習のパラダイムは、問題の構造を直接学習するのではなく、アウトカムを概算するためにパラメーターを繰り返し調整するニューラルネットワークのような連続表現に依存しています。
これにより、ネットワーク全体に情報が広がり、環境ダイナミクスモデリングの以前の作業に基づいて情報の損失や理解不能性の構築などの問題を引き起こし、構造化された継続的な方法で視覚空間を学習する方法を提案します。
私たちのアプローチは、ネットワークを改良して、オブジェクトのコア構造をキャプチャしながら、構造内の重要なサブバリアントを効率的に表しています。
これを2D形状検出で実証し、知識を上書きせず、コンパクトで理解可能な表現を作成することなく、MNISTの増分学習を示します。
これらの結果は、視覚処理のための従来のニューラルネットワークに代わる、透明で継続的に学習する透明性に向けた有望なステップを提供します。
要約(オリジナル)
Current machine learning paradigm relies on continuous representations like neural networks, which iteratively adjust parameters to approximate outcomes rather than directly learning the structure of problem. This spreads information across the network, causing issues like information loss and incomprehensibility Building on prior work in environment dynamics modeling, we propose a method that learns visual space in a structured, continual manner. Our approach refines networks to capture the core structure of objects while representing significant subvariants in structure efficiently. We demonstrate this with 2D shape detection, showing incremental learning on MNIST without overwriting knowledge and creating compact, comprehensible representations. These results offer a promising step toward a transparent, continually learning alternative to traditional neural networks for visual processing.
arxiv情報
著者 | Zeki Doruk Erden,Boi Faltings |
発行日 | 2025-02-19 18:18:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google