The Surprising Positive Knowledge Transfer in Continual 3D Object Shape Reconstruction

要約

継続的学習は分類タスクのために広く研究されており、壊滅的な忘却を主に回避するために開発された方法が開発されています。
この作業では、さまざまな入力モダリティからの完全な 3D 形状再構成、およびトレーニング時の肯定的な知識 (後方および前方への) 転送を驚くほど実証する可視表面 (2.5D) 再構成を含む、一連の継続的な 3D オブジェクト形状再構成タスクを提示します。
標準の SGD のみを使用し、追加のヒューリスティックは使用しません。
単一ビューの 3D 形状再構成の継続的に更新される表現学習により、学習した新しいカテゴリのパフォーマンスが時間の経過とともに向上するという証拠を提供します。
シーケンシャルな学習タスク全体の出力分布のシフトを調べることにより、知識伝達能力の新しい分析を提供します。
最後に、これらのタスクの堅牢性が、継続的な分類のためのプロキシ表現学習タスクを持つ可能性につながることを示します。
この記事でリリースされたコードベース、データセット、事前トレーニング済みモデルは、https://github.com/rehg-lab/CLRec にあります。

要約(オリジナル)

Continual learning has been extensively studied for classification tasks with methods developed to primarily avoid catastrophic forgetting, a phenomenon where earlier learned concepts are forgotten at the expense of more recent samples. In this work, we present a set of continual 3D object shape reconstruction tasks, including complete 3D shape reconstruction from different input modalities, as well as visible surface (2.5D) reconstruction which, surprisingly demonstrate positive knowledge (backward and forward) transfer when training with solely standard SGD and without additional heuristics. We provide evidence that continuously updated representation learning of single-view 3D shape reconstruction improves the performance on learned and novel categories over time. We provide a novel analysis of knowledge transfer ability by looking at the output distribution shift across sequential learning tasks. Finally, we show that the robustness of these tasks leads to the potential of having a proxy representation learning task for continual classification. The codebase, dataset and pre-trained models released with this article can be found at https://github.com/rehg-lab/CLRec

arxiv情報

著者 Anh Thai,Stefan Stojanov,Zixuan Huang,Isaac Rehg,James M. Rehg
発行日 2022-09-09 03:44:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク