Foundation Model or Finetune? Evaluation of few-shot semantic segmentation for river pollution

要約

基礎モデル (FM) は、AI の人気の研究トピックです。
再トレーニングや大量のデータを必要とせずに、新しいタスクやデータセットに一般化できる能力により、専門的なデータセットでのアプリケーションの魅力的な候補となります。
この研究では、まったく新しいデータセットに対するセマンティック セグメンテーションのタスクにおいて、FM のパフォーマンスを、微調整された事前トレーニング済みの教師ありモデルと比較します。
データが不足している場合でも、微調整されたモデルはテストした FM よりも常に優れたパフォーマンスを示していることがわかります。
この作業のコードとデータセットを GitHub でリリースします。

要約(オリジナル)

Foundation models (FMs) are a popular topic of research in AI. Their ability to generalize to new tasks and datasets without retraining or needing an abundance of data makes them an appealing candidate for applications on specialist datasets. In this work, we compare the performance of FMs to finetuned pre-trained supervised models in the task of semantic segmentation on an entirely new dataset. We see that finetuned models consistently outperform the FMs tested, even in cases were data is scarce. We release the code and dataset for this work on GitHub.

arxiv情報

著者 Marga Don,Stijn Pinson,Blanca Guillen Cebrian,Yuki M. Asano
発行日 2024-09-05 17:59:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク