BitE : Accelerating Learned Query Optimization in a Mixed-Workload Environment

要約

近年、深層強化学習をクエリ最適化に適用する試みが数多く行われているが、クエリ最適化装置は、作業負荷やデータセットを手作業で調整する必要がある複雑な存在であるため、改善の余地が残されている。最近の研究では、学習されたクエリ最適化の結果は、ほとんどが単一のワークロードのバルクで、特定のワークロードの固有の特徴をピックアップすることに焦点を当てています。このことは、複数のワークロードやデータセットの異なる特性を混合して学習するようなシナリオでは問題があることが判明している。そこで、本論文では、データベース統計とメタデータを用いた新しいアンサンブル学習モデルBitEを提案し、学習済みクエリオプティマイザをチューニングして性能を向上させる。ヒントセットを拡張することで最適な抽象SQLプラン(ASPと呼ばれるJSONオブジェクトとして表される)の探索空間を拡張し、クエリのすべてのユニークなプランの経験を設定することで偏ったデフォルトプランからモデルを遠ざけ、従来の損失関数から逸脱して報酬の過小評価と過大評価に対処する代替方法を選択する。我々のモデルは、同等のレベルのリソースを使用しながら、既存の伝統的な方法と比較して、19.6%多い改善されたクエリと15.8%少ない退行したクエリを達成することができます。

要約(オリジナル)

Although the many efforts to apply deep reinforcement learning to query optimization in recent years, there remains room for improvement as query optimizers are complex entities that require hand-designed tuning of workloads and datasets. Recent research present learned query optimizations results mostly in bulks of single workloads which focus on picking up the unique traits of the specific workload. This proves to be problematic in scenarios where the different characteristics of multiple workloads and datasets are to be mixed and learned together. Henceforth, in this paper, we propose BitE, a novel ensemble learning model using database statistics and metadata to tune a learned query optimizer for enhancing performance. On the way, we introduce multiple revisions to solve several challenges: we extend the search space for the optimal Abstract SQL Plan(represented as a JSON object called ASP) by expanding hintsets, we steer the model away from the default plans that may be biased by configuring the experience with all unique plans of queries, and we deviate from the traditional loss functions and choose an alternative method to cope with underestimation and overestimation of reward. Our model achieves 19.6% more improved queries and 15.8% less regressed queries compared to the existing traditional methods whilst using a comparable level of resources.

arxiv情報

著者 Yuri Kim,Yewon Choi,Yujung Gil,Sanghee Lee,Heesik Shin,Jaehyok Chong
発行日 2023-06-02 01:32:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.DB, cs.LG パーマリンク