要約
機械学習における最も基本的な下界の一つは、ほぼ全ての非自明な設定において、誤差$epsilon$を学習するのに$1/epsilon$個のサンプルが必要であるということである(学習される分類器が複雑な場合、それ以上)。しかし、データ点が、そうすることで(望ましい)正の分類を受けられるなら、わずかな改善能力を持っているエージェントだとする。その場合、「十分に近い」だけで、実際に$textit{zero}$エラーを達成できるかもしれない。例えば、ある閾値$theta$に対して、$theta$以上のエージェントは合格し、$theta$以下のエージェントは不合格になる(つまり、線上の閾値を学習する)ような、ある仕事でのエージェントの技能を測定するための採用試験を想像する。また、エージェントは努力することで、ある少量$r$だけスキルレベルを向上させることができるとする。このように、エージェントが向上する能力は、標準的なモデルでは達成を望むことができなかった目標、すなわち誤差ゼロを可能にする可能性を秘めている。 本論文では、この現象をより広く探求し、一般的な結果を与えるとともに、エージェントの改善能力がどのような条件下で学習のサンプル複雑度を減少させることができるのか、あるいは逆に学習を難しくすることができるのかを検証する。また、どのような種類の改善を考慮したアルゴリズムが、限られた範囲で改善する能力を持つエージェントを考慮に入れることができるかを、理論的にも経験的にも検証する。
要約(オリジナル)
One of the most basic lower bounds in machine learning is that in nearly any nontrivial setting, it takes $\textit{at least}$ $1/\epsilon$ samples to learn to error $\epsilon$ (and more, if the classifier being learned is complex). However, suppose that data points are agents who have the ability to improve by a small amount if doing so will allow them to receive a (desired) positive classification. In that case, we may actually be able to achieve $\textit{zero}$ error by just being ‘close enough’. For example, imagine a hiring test used to measure an agent’s skill at some job such that for some threshold $\theta$, agents who score above $\theta$ will be successful and those who score below $\theta$ will not (i.e., learning a threshold on the line). Suppose also that by putting in effort, agents can improve their skill level by some small amount $r$. In that case, if we learn an approximation $\hat{\theta}$ of $\theta$ such that $\theta \leq \hat{\theta} \leq \theta + r$ and use it for hiring, we can actually achieve error zero, in the sense that (a) any agent classified as positive is truly qualified, and (b) any agent who truly is qualified can be classified as positive by putting in effort. Thus, the ability for agents to improve has the potential to allow for a goal one could not hope to achieve in standard models, namely zero error. In this paper, we explore this phenomenon more broadly, giving general results and examining under what conditions the ability of agents to improve can allow for a reduction in the sample complexity of learning, or alternatively, can make learning harder. We also examine both theoretically and empirically what kinds of improvement-aware algorithms can take into account agents who have the ability to improve to a limited extent when it is in their interest to do so.
arxiv情報
著者 | Idan Attias,Avrim Blum,Keziah Naggita,Donya Saless,Dravyansh Sharma,Matthew Walter |
発行日 | 2025-06-03 16:22:35+00:00 |
arxivサイト | arxiv_id(pdf) |