要約
確率論的設定でのオンライン一般化線形回帰の問題を研究します。ラベルは、おそらく無限の加法性ノイズを含む一般化線形モデルから生成されます。
ラベル ノイズに対処するために、古典的な正規化リーダーに従う (FTRL) アルゴリズムの鋭い分析を提供します。
より具体的には、$\sigma$-sub-Gaussian ラベル ノイズの場合、分析により、後悔の上限が $O(\sigma^2 d \log T) + o(\log T)$ となります。ここで、$d$ は
入力ベクトルの次元、$T$ は総ラウンド数です。
また、確率的オンライン線形回帰の $\Omega(\sigma^2d\log(T/d))$ 下限を証明します。これは、上限がほぼ最適であることを示しています。
さらに、分析をより洗練されたバーンスタイン ノイズ条件に拡張します。
アプリケーションとして、不均一分散ノイズを含む一般化された線形バンディットを研究し、FTRL に基づくアルゴリズムを提案して、最初の分散認識リグレット バウンドを達成します。
要約(オリジナル)
We study the problem of online generalized linear regression in the stochastic setting, where the label is generated from a generalized linear model with possibly unbounded additive noise. We provide a sharp analysis of the classical follow-the-regularized-leader (FTRL) algorithm to cope with the label noise. More specifically, for $\sigma$-sub-Gaussian label noise, our analysis provides a regret upper bound of $O(\sigma^2 d \log T) + o(\log T)$, where $d$ is the dimension of the input vector, $T$ is the total number of rounds. We also prove a $\Omega(\sigma^2d\log(T/d))$ lower bound for stochastic online linear regression, which indicates that our upper bound is nearly optimal. In addition, we extend our analysis to a more refined Bernstein noise condition. As an application, we study generalized linear bandits with heteroscedastic noise and propose an algorithm based on FTRL to achieve the first variance-aware regret bound.
arxiv情報
著者 | Heyang Zhao,Dongruo Zhou,Jiafan He,Quanquan Gu |
発行日 | 2023-03-27 17:52:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google