Optimizing Multi-Domain Performance with Active Learning-based Improvement Strategies

要約

【タイトル】アクティブラーニングベースの改善戦略によるマルチドメインパフォーマンスの最適化

【要約】
– 複数のドメインでのパフォーマンス向上は難しい問題であり、大量のデータをトレーニングおよびテストする必要がある。
– アクティブラーニング技術は、モデルが最も情報量の多いラベル付けされたサンプルを選択することで、ラベル付けデータの量を減らし、高いパフォーマンスを実現する可能性がある。
– 本論文では、マルチドメインのパフォーマンス向上のためのアクティブラーニングベースのフレームワークを提案する。
– 当社の提案手法は、2つのステージで構成されており、最初にラベル付けされたデータセットを使用してベースモデルをトレーニングし、その後、より多くの有用なサンプルを取得してモデルを改善するためにイテレーションを繰り返す。
– 当社の手法は、画像分類、感情分析、物体認識を含む複数のマルチドメインデータセットで評価され、ベースライン手法よりも優れたパフォーマンスを常に発揮し、いくつかのデータセットで最先端の性能を発揮することが示された。
– また、当社の手法は高い効率性を持っており、他のアクティブラーニングベースの手法よりも少ないラベル付けサンプル数で済むことが示された。
– 結局のところ、当社の手法は、アクティブラーニング技術を使用して、マルチドメインでのパフォーマンス向上に対する実用的かつ効果的な解決策を提供している。

要約(オリジナル)

Improving performance in multiple domains is a challenging task, and often requires significant amounts of data to train and test models. Active learning techniques provide a promising solution by enabling models to select the most informative samples for labeling, thus reducing the amount of labeled data required to achieve high performance. In this paper, we present an active learning-based framework for improving performance across multiple domains. Our approach consists of two stages: first, we use an initial set of labeled data to train a base model, and then we iteratively select the most informative samples for labeling to refine the model. We evaluate our approach on several multi-domain datasets, including image classification, sentiment analysis, and object recognition. Our experiments demonstrate that our approach consistently outperforms baseline methods and achieves state-of-the-art performance on several datasets. We also show that our method is highly efficient, requiring significantly fewer labeled samples than other active learning-based methods. Overall, our approach provides a practical and effective solution for improving performance across multiple domains using active learning techniques.

arxiv情報

著者 Anand Gokul Mahalingam,Aayush Shah,Akshay Gulati,Royston Mascarenhas,Rakshitha Panduranga
発行日 2023-04-13 05:27:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク