SimCS: Simulation for Domain Incremental Online Continual Segmentation

要約

継続学習は、モデルが以前の知識を忘れることなく、最近収集されたデータから継続的に学習する、生涯にわたるインテリジェンスへのステップです。
既存の継続的学習アプローチは主に、明確なタスク境界と無制限の計算予算を備えたクラス増分セットアップでの画像分類に焦点を当てています。
この研究では、オンライン ドメイン増分継続セグメンテーション (ODICS) の問題を調査します。ODICS では、限られた計算量とタスク境界に関する情報なしで、さまざまなドメインからの密にラベル付けされた画像のバッチに対してモデルが継続的にトレーニングされます。
ODICS は多くの実際のアプリケーションで発生します。
自動運転では、これは一連の都市で時間の経過とともにセグメンテーション モデルをトレーニングするという現実的なシナリオに対応する可能性があります。
私たちはいくつかの既存の継続的学習方法を分析し、クラス増分セグメンテーションではうまく機能するにもかかわらず、この設定ではパフォーマンスが低いことを示しました。
我々は、シミュレートされたデータを使用して継続的な学習を正規化する既存の方法を補完するパラメーターフリーの方法である SimCS を提案します。
実験では、SimCS をさまざまな CL メソッドと組み合わせた場合に一貫した改善が得られることが示されています。

要約(オリジナル)

Continual Learning is a step towards lifelong intelligence where models continuously learn from recently collected data without forgetting previous knowledge. Existing continual learning approaches mostly focus on image classification in the class-incremental setup with clear task boundaries and unlimited computational budget. This work explores the problem of Online Domain-Incremental Continual Segmentation (ODICS), where the model is continually trained over batches of densely labeled images from different domains, with limited computation and no information about the task boundaries. ODICS arises in many practical applications. In autonomous driving, this may correspond to the realistic scenario of training a segmentation model over time on a sequence of cities. We analyze several existing continual learning methods and show that they perform poorly in this setting despite working well in class-incremental segmentation. We propose SimCS, a parameter-free method complementary to existing ones that uses simulated data to regularize continual learning. Experiments show that SimCS provides consistent improvements when combined with different CL methods.

arxiv情報

著者 Motasem Alfarra,Zhipeng Cai,Adel Bibi,Bernard Ghanem,Matthias Müller
発行日 2024-02-15 12:12:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク