要約
ほとんどのアクティブな学習研究は、多くのラベルが利用可能な場合にうまく機能する方法に焦点を当てていますが、ラベルの予算が小さい場合はランダム選択よりも劇的に悪化する可能性があります。
他の方法は低予算体制に焦点を合わせていますが、ラベルの予算が増加するにつれて不十分に行います。
「低」と「高」予算の境界線は問題によって異なるため、これは実際には深刻な問題です。
不確実性のカバレッジを提案します。これは、さまざまな低予算および高予算の目標を一般的に一般化する目的、および低予算体制と高予算体制の間をスムーズに補間するための自然なハイパーパラメーター光の方法です。
推定不確実性の群れの貪欲な最適化を呼び出します。
この単純な方法は計算高速であり、流通レベルのカバレッジをほぼ最適化することを証明します。
さまざまなアクティブな学習タスクにわたる実験的検証において、私たちの提案は、本質的にすべての場合に最先端のパフォーマンスに一致するか、打ち負かします。
これは、低予算と高予算の両方の設定で確実にうまく機能することを認識している唯一の方法です。
要約(オリジナル)
Most active learning research has focused on methods which perform well when many labels are available, but can be dramatically worse than random selection when label budgets are small. Other methods have focused on the low-budget regime, but do poorly as label budgets increase. As the line between ‘low’ and ‘high’ budgets varies by problem, this is a serious issue in practice. We propose uncertainty coverage, an objective which generalizes a variety of low- and high-budget objectives, as well as natural, hyperparameter-light methods to smoothly interpolate between low- and high-budget regimes. We call greedy optimization of the estimate Uncertainty Herding; this simple method is computationally fast, and we prove that it nearly optimizes the distribution-level coverage. In experimental validation across a variety of active learning tasks, our proposal matches or beats state-of-the-art performance in essentially all cases; it is the only method of which we are aware that reliably works well in both low- and high-budget settings.
arxiv情報
著者 | Wonho Bae,Gabriel L. Oliveira,Danica J. Sutherland |
発行日 | 2025-02-27 17:33:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google