LLMTune: Accelerate Database Knob Tuning with Large Language Models

要約

データベース ノブのチューニングはデータベース コミュニティにおける重要な課題であり、ノブ値を最適化して特定のワークロードのデータベース パフォーマンスを向上させることを目的としています。
DBMS は多くの場合、数百もの調整可能なノブを備えているため、DBA が最適な構成を推奨するのは大きな課題となっています。
その結果、このプロセスを自動化するために、多くの機械学習ベースの調整方法が開発されました。
さまざまなオプティマイザーの導入にも関わらず、実際のアプリケーションでは新たな問題が明らかになりました。通常、満足のいくパフォーマンスを達成するには多数のワークロードを実行する必要があり、そのプロセスは時間もリソースも大量に消費します。
この非効率性の主な原因は、最適な構成がデフォルト設定と大幅に異なることが多く、チューニング中に複数回の反復が必要になることです。
これを認識して、効果的な開始点により、非効率な領域での冗長な探索が大幅に削減され、それによってオプティマイザーのチューニング プロセスが高速化される可能性があると主張します。
この前提に基づいて、新しいワークロード用の高品質の初期構成を生成するように設計された大規模な言語モデルベースの構成ジェネレーターである LLMTune を紹介します。
これらの生成された構成は、さまざまな基本オプティマイザーの開始点として機能し、チューニング プロセスを加速します。
LLMTune の教師あり微調整用のトレーニング データを取得するために、多数の <ワークロード、構成> ペアを効率的に作成できる新しい自動データ生成フレームワークを考案しました。
TPC-H や JOB などのさまざまなワークロードで LLMTune の有効性を評価するために、徹底的な実験を実施しました。
主要な方法と比較して、LLMTune は優れた構成をより迅速に特定できることを示しています。
たとえば、困難な TPC-H ワークロードの場合、当社の LLMTune は、最高のパフォーマンスの構成を見つける際に 15.6 倍という大幅な高速化率を達成します。

要約(オリジナル)

Database knob tuning is a critical challenge in the database community, aiming to optimize knob values to enhance database performance for specific workloads. DBMS often feature hundreds of tunable knobs, posing a significant challenge for DBAs to recommend optimal configurations. Consequently, many machine learning-based tuning methods have been developed to automate this process. Despite the introduction of various optimizers, practical applications have unveiled a new problem: they typically require numerous workload runs to achieve satisfactory performance, a process that is both time-consuming and resource-intensive. This inefficiency largely stems from the optimal configuration often being substantially different from the default setting, necessitating multiple iterations during tuning. Recognizing this, we argue that an effective starting point could significantly reduce redundant exploration in less efficient areas, thereby potentially speeding up the tuning process for the optimizers. Based on this assumption, we introduce LLMTune, a large language model-based configuration generator designed to produce an initial, high-quality configuration for new workloads. These generated configurations can then serve as starting points for various base optimizers, accelerating their tuning processes. To obtain training data for LLMTune’s supervised fine-tuning, we have devised a new automatic data generation framework capable of efficiently creating a large number of pairs. We have conducted thorough experiments to evaluate LLMTune’s effectiveness with different workloads, such as TPC-H and JOB. In comparison to leading methods, LLMTune demonstrates a quicker ability to identify superior configurations. For instance, with the challenging TPC-H workload, our LLMTune achieves a significant 15.6x speed-up ratio in finding the best-performing configurations.

arxiv情報

著者 Xinmei Huang,Haoyang Li,Jing Zhang,Xinxin Zhao,Zhiming Yao,Yiyan Li,Zhuohao Yu,Tieying Zhang,Hong Chen,Cuiping Li
発行日 2024-04-17 17:28:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.DB パーマリンク