SimCS: Simulation for Online Domain-Incremental Continual Segmentation

要約

継続的学習は、モデルが以前の知識を忘れることなく、最近収集されたデータから継続的に学習する、生涯にわたる知性への一歩です。
既存の継続的な学習アプローチは、ほとんどの場合、明確なタスク境界と無制限の計算予算を備えたクラス増分セットアップでの画像分類に焦点を当てています。
この作業では、自動運転などの多くのアプリケーションで発生する現実世界の問題である Online Domain-Incremental Continual Segmentation~(ODICS) を調査します。
ODICS では、モデルはさまざまなドメインからの密にラベル付けされた画像のバッチで継続的に提示されます。
計算は制限されており、タスク境界に関する情報は利用できません。
自動運転では、これは一連の都市で時間をかけてセグメンテーション モデルをトレーニングするという現実的なシナリオに対応している可能性があります。
いくつかの既存の継続的学習方法を分析し、クラス増分セグメンテーションではうまく機能しているにもかかわらず、この設定ではうまく機能しないことを示しています。
シミュレートされたデータを継続的な学習正則化器として活用する、既存の方法を補完するパラメーターなしの方法である SimCS を提案します。
広範な実験により、正則化やリプレイを使用するさまざまな種類の継続的な学習方法よりも一貫した改善が見られます。

要約(オリジナル)

Continual Learning is a step towards lifelong intelligence where models continuously learn from recently collected data without forgetting previous knowledge. Existing continual learning approaches mostly focus on image classification in the class-incremental setup with clear task boundaries and unlimited computational budget. This work explores Online Domain-Incremental Continual Segmentation~(ODICS), a real-world problem that arises in many applications, \eg, autonomous driving. In ODICS, the model is continually presented with batches of densely labeled images from different domains; computation is limited and no information about the task boundaries is available. In autonomous driving, this may correspond to the realistic scenario of training a segmentation model over time on a sequence of cities. We analyze several existing continual learning methods and show that they do not perform well in this setting despite working well in class-incremental segmentation. We propose SimCS, a parameter-free method complementary to existing ones that leverages simulated data as a continual learning regularizer. Extensive experiments show consistent improvements over different types of continual learning methods that use regularizers and even replay.

arxiv情報

著者 Motasem Alfarra,Zhipeng Cai,Adel Bibi,Bernard Ghanem,Matthias Müller
発行日 2022-11-29 14:17:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク