Near-Polynomially Competitive Active Logistic Regression

要約

実現可能な設定でのアクティブなロジスティック回帰の問題に対処します。
アクティブ学習は、パッシブ学習と比較して指数関数的にラベルクエリを指数関数的に少なくする必要があることがよく知られています。
すべての入力インスタンスで最適なアルゴリズムと多項式的に競合する最初のアルゴリズムを提示します。
特に、いずれかのアルゴリズムが$ \ eps $でラベルの複雑さポリロガリズムを達成した場合、私たちも同様です。
私たちのアルゴリズムは、効率的なサンプリングに基づいており、より一般的なクラスの関数を学習するために拡張できます。
さらに、既存のアクティブな学習アルゴリズムと比較して、ロジスティック回帰のパフォーマンスの向上を示す実験で理論的な結果をサポートします。

要約(オリジナル)

We address the problem of active logistic regression in the realizable setting. It is well known that active learning can require exponentially fewer label queries compared to passive learning, in some cases using $\log \frac{1}{\eps}$ rather than $\poly(1/\eps)$ labels to get error $\eps$ larger than the optimum. We present the first algorithm that is polynomially competitive with the optimal algorithm on every input instance, up to factors polylogarithmic in the error and domain size. In particular, if any algorithm achieves label complexity polylogarithmic in $\eps$, so does ours. Our algorithm is based on efficient sampling and can be extended to learn more general class of functions. We further support our theoretical results with experiments demonstrating performance gains for logistic regression compared to existing active learning algorithms.

arxiv情報

著者 Yihan Zhou,Eric Price,Trung Nguyen
発行日 2025-04-18 17:55:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク