要約
この論文では、強化学習 (RL) のための効率的で軽量なクエリ最適化環境である \textsc{JoinGym} を紹介します。
結合順序選択 (JOS) は、データベース クエリ最適化からの古典的な NP ハード組み合わせ最適化問題であり、RL アルゴリズムの一般化機能の実用的なテストベッドとして機能します。
JOS 問題の左ディープおよびブッシュの各バリアントをマルコフ決定プロセス (MDP) として定式化する方法を説明し、標準の Gymnasium API に準拠した実装を提供します。
私たちの実装 \textsc{JoinGym} は、考えられるすべての結合のオフライン トレースに完全に基づいていることを強調します。これにより、RL 実践者は、システムをセットアップする必要がなく、現実的なデータ管理の問題に対してメソッドを簡単かつ迅速にテストできます。
さらに、IMDB データセットから生成された $3300$ の新規 SQL クエリに関するすべての可能な結合トレースも提供します。
一般的な RL アルゴリズムのベンチマークを行った結果、少なくとも 1 つのメソッドはトレインセット クエリでは最適に近いパフォーマンスを得ることができますが、テストセット クエリではパフォーマンスが数桁低下することがわかりました。
このギャップにより、マルチタスクの組み合わせ最適化問題をうまく一般化できる RL アルゴリズムのさらなる研究が促進されます。
要約(オリジナル)
In this paper, we present \textsc{JoinGym}, an efficient and lightweight query optimization environment for reinforcement learning (RL). Join order selection (JOS) is a classic NP-hard combinatorial optimization problem from database query optimization and can serve as a practical testbed for the generalization capabilities of RL algorithms. We describe how to formulate each of the left-deep and bushy variants of the JOS problem as a Markov Decision Process (MDP), and we provide an implementation adhering to the standard Gymnasium API. We highlight that our implementation \textsc{JoinGym} is completely based on offline traces of all possible joins, which enables RL practitioners to easily and quickly test their methods on a realistic data management problem without needing to setup any systems. Moreover, we also provide all possible join traces on $3300$ novel SQL queries generated from the IMDB dataset. Upon benchmarking popular RL algorithms, we find that at least one method can obtain near-optimal performance on train-set queries but their performance degrades by several orders of magnitude on test-set queries. This gap motivates further research for RL algorithms that generalize well in multi-task combinatorial optimization problems.
arxiv情報
著者 | Kaiwen Wang,Junxiong Wang,Yueying Li,Nathan Kallus,Immanuel Trummer,Wen Sun |
発行日 | 2023-07-21 17:00:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google