GL-LowPopArt: A Nearly Instance-Wise Minimax-Optimal Estimator for Generalized Low-Rank Trace Regression

要約

一般化された低ランク微量回帰のための新しいカトーニスタイルの推定器である「GL-LowPopart」を提示します。
「Lowpopart」(Jang et al。、2024)に基づいて、2段階のアプローチを採用しています。核規範の正規化に続いてマトリックスカトニの推定です。
既存の保証を上回り(Fan et al。、2019; Kang et al。、2022)、最先端の推定エラー境界を確立し、新しい実験設計目的$ \ mathrm {gl}(\ pi)$を明らかにします。
重要な技術的課題は、2段階のアプローチによって対処する非線形逆リンク関数からのバイアスを制御することです。
私たちは *ローカル *ミニマックスの下限を証明し、「Gl-lowpopart」が地上真実のヘシアンの条件数までインスタンスごとの最適性を享受していることを示しています。
アプリケーションには、一般化された線形マトリックスの完了が含まれます。ここでは、「GL-lowpopart」は、最先端のFrobeniusエラー保証を実現します。
「gl-lowpopart」ベースのExplore-then-commitアルゴリズムの分析により、新しい、潜在的に興味深い問題依存量が明らかになり、vectorizationよりも改善されたBordaの後悔が拘束されました(Wu et al。、2024)。

要約(オリジナル)

We present `GL-LowPopArt`, a novel Catoni-style estimator for generalized low-rank trace regression. Building on `LowPopArt` (Jang et al., 2024), it employs a two-stage approach: nuclear norm regularization followed by matrix Catoni estimation. We establish state-of-the-art estimation error bounds, surpassing existing guarantees (Fan et al., 2019; Kang et al., 2022), and reveal a novel experimental design objective, $\mathrm{GL}(\pi)$. The key technical challenge is controlling bias from the nonlinear inverse link function, which we address by our two-stage approach. We prove a *local* minimax lower bound, showing that our `GL-LowPopArt` enjoys instance-wise optimality up to the condition number of the ground-truth Hessian. Applications include generalized linear matrix completion, where `GL-LowPopArt` achieves a state-of-the-art Frobenius error guarantee, and **bilinear dueling bandits**, a novel setting inspired by general preference learning (Zhang et al., 2024). Our analysis of a `GL-LowPopArt`-based explore-then-commit algorithm reveals a new, potentially interesting problem-dependent quantity, along with improved Borda regret bound than vectorization (Wu et al., 2024).

arxiv情報

著者 Junghyun Lee,Kyoungseok Jang,Kwang-Sung Jun,Milan Vojnović,Se-Young Yun
発行日 2025-06-18 15:42:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク