Reduced Label Complexity For Tight $\ell_2$ Regression

要約

データ${rm X}, ラベル${mathbf{y} ininmathbb{R}^{n}$が与えられたとき、$Vert{rm X}-mathbf{w}-inmathbb{R}^d$ を最小化するための$mathbf{w}を見つけることが目標である。このとき、$mathbf{y}$に依存せず、$n/(d+sqrt{n})$データ点を捨て、期待値で$(1+d/n)$最適近似する多項式アルゴリズムが与えられる。その動機は、ラベルの複雑さ(明らかにされたラベルの数)を減らして、厳密な近似を行うことである。ラベルの複雑さを$Omega( \sqrt{n})$ だけ減らすことができる。Open question:ラベル複雑度を$Omega(n)$だけ減らして、$(1+d/n)$-approximationをタイトにできる?

要約(オリジナル)

Given data ${\rm X}\in\mathbb{R}^{n\times d}$ and labels $\mathbf{y}\in\mathbb{R}^{n}$ the goal is find $\mathbf{w}\in\mathbb{R}^d$ to minimize $\Vert{\rm X}\mathbf{w}-\mathbf{y}\Vert^2$. We give a polynomial algorithm that, \emph{oblivious to $\mathbf{y}$}, throws out $n/(d+\sqrt{n})$ data points and is a $(1+d/n)$-approximation to optimal in expectation. The motivation is tight approximation with reduced label complexity (number of labels revealed). We reduce label complexity by $\Omega(\sqrt{n})$. Open question: Can label complexity be reduced by $\Omega(n)$ with tight $(1+d/n)$-approximation?

arxiv情報

著者 Alex Gittens,Malik Magdon-Ismail
発行日 2023-05-12 13:56:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.DS, cs.LG パーマリンク