要約
多項ロジット(MNL)モデルの下でオフラインの品揃え最適化の基本的な問題を研究します。ここでは、販売者は、歴史的な顧客選択データのみに基づいて提供する製品の最適なサブセットを決定する必要があります。
学習ベースの品揃えへのほとんどの既存のアプローチは、顧客との繰り返しのやり取りを通じて最適な品揃えのオンライン学習に焦点を当てていますが、そのような探査は多くの現実世界の設定で費用がかかるか、非実用的です。
この論文では、オフライン学習パラダイムを検討し、効率的なオフラインの品揃えの最適化のための最小限のデータ要件を調査します。
この目的のために、ランクブレークと悲観的な推定を組み合わせたアルゴリズムである悲観的なランクブレイク(PRB)を紹介します。
PRBは、タイトなサブ最適性の上限とほぼ一致する下限を確立することにより、ほぼ最適であることを証明します。
これはさらに、「最適なアイテムカバレッジ」 – 最適な品揃えの各アイテムが履歴データに十分に頻繁に表示されることが十分であり、効率的なオフライン学習に必要であることを示しています。
これは、データ内の完全な最適な品揃えを観察するという以前の要件を大幅に緩和します。
私たちの結果は、MNLモデルの下でのオフラインの品揃え最適化のデータ要件に関する基本的な洞察を提供します。
要約(オリジナル)
We study the fundamental problem of offline assortment optimization under the Multinomial Logit (MNL) model, where sellers must determine the optimal subset of the products to offer based solely on historical customer choice data. While most existing approaches to learning-based assortment optimization focus on the online learning of the optimal assortment through repeated interactions with customers, such exploration can be costly or even impractical in many real-world settings. In this paper, we consider the offline learning paradigm and investigate the minimal data requirements for efficient offline assortment optimization. To this end, we introduce Pessimistic Rank-Breaking (PRB), an algorithm that combines rank-breaking with pessimistic estimation. We prove that PRB is nearly minimax optimal by establishing the tight suboptimality upper bound and a nearly matching lower bound. This further shows that ‘optimal item coverage’ – where each item in the optimal assortment appears sufficiently often in the historical data – is both sufficient and necessary for efficient offline learning. This significantly relaxes the previous requirement of observing the complete optimal assortment in the data. Our results provide fundamental insights into the data requirements for offline assortment optimization under the MNL model.
arxiv情報
著者 | Yuxuan Han,Han Zhong,Miao Lu,Jose Blanchet,Zhengyuan Zhou |
発行日 | 2025-02-10 18:54:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google