要約
機械学習は、クエリの最適化やデータベース内データ分析など、データベース操作の変革の可能性を実証しています。
ただし、頻繁な更新と進化するデータ分布を特徴とする動的データベース環境は、概念ドリフトを導入し、学習されたモデルのパフォーマンスの低下につながり、実用的な適用性を制限します。
この課題に対処するには、再訓練または微調整のオーバーヘッドを最小限に抑えながら、概念のシフトに適応できる効率的なフレームワークが必要です。
この論文では、学習したデータベース操作のために\ textIT {in-context適応}と呼ばれる新しいパラダイムを導入するオンライン適応フレームワークであるFlairを提案します。
FLAIRは、データシステムの固有のプロパティ、つまり、動的コンテキスト構築を可能にするために、予測のための実行結果の即時利用可能性を活用します。
適応を$ fとして形式化することにより、$ f:(\ mathbf {x} \、| \、\ mathcal {c} _t)\ to \ mathbf {y} $、$ \ mathcal {c} _t $を表します。
これを実現するために、Flairは2つの重要なモジュールを統合します。タスク固有の機能を標準化された表現にエンコードするためのタスク機能モジュールと、ベイジアンメタトレーニングを介して事前に訓練された動的決定エンジンは、実行時にコンテキスト情報をシームレスに適応させます。
主要なデータベースタスク全体の広範な実験は、Flairが最先端のベースラインを上回り、最大5.2倍の速い適応を達成し、カーディナリティの推定で22.5%減少することを示しています。
要約(オリジナル)
Machine learning has demonstrated transformative potential for database operations, such as query optimization and in-database data analytics. However, dynamic database environments, characterized by frequent updates and evolving data distributions, introduce concept drift, which leads to performance degradation for learned models and limits their practical applicability. Addressing this challenge requires efficient frameworks capable of adapting to shifting concepts while minimizing the overhead of retraining or fine-tuning. In this paper, we propose FLAIR, an online adaptation framework that introduces a new paradigm called \textit{in-context adaptation} for learned database operations. FLAIR leverages the inherent property of data systems, i.e., immediate availability of execution results for predictions, to enable dynamic context construction. By formalizing adaptation as $f:(\mathbf{x} \,| \,\mathcal{C}_t) \to \mathbf{y}$, with $\mathcal{C}_t$ representing a dynamic context memory, FLAIR delivers predictions aligned with the current concept, eliminating the need for runtime parameter optimization. To achieve this, FLAIR integrates two key modules: a Task Featurization Module for encoding task-specific features into standardized representations, and a Dynamic Decision Engine, pre-trained via Bayesian meta-training, to adapt seamlessly using contextual information at runtime. Extensive experiments across key database tasks demonstrate that FLAIR outperforms state-of-the-art baselines, achieving up to 5.2x faster adaptation and reducing error by 22.5% for cardinality estimation.
arxiv情報
著者 | Jiaqi Zhu,Shaofeng Cai,Yanyan Shen,Gang Chen,Fang Deng,Beng Chin Ooi |
発行日 | 2025-05-07 13:36:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google