Federated Automated Feature Engineering

要約

自動化された機能エンジニアリング(AutoFE)を使用して、重要な人間の介入とドメインの専門知識を必要とせずに予測パフォーマンスを向上させるために、元の機能から新しい機能を自動的に作成します。
Autofeには多くのアルゴリズムが存在しますが、多くのクライアントにデータが収集され、クライアントまたはセントラルサーバー間で共有されていないフェデレートラーニング(FL)設定には、非常に少数のアプローチが存在しません。
水平、垂直、およびハイブリッドFLの設定にAutofeアルゴリズムを導入します。これは、クライアント間でデータの収集方法が異なります。
私たちの知る限り、私たちは水平およびハイブリッドFLのケースのオートフェアルゴリズムを最初に開発したことであり、私たちのフェデレーションされたオートフェアルゴリズムのダウンストリームテストスコアが、データがセントラルに保持され、オートフェが中央に実行される場合にパフォーマンスが緊密であることを示します。

要約(オリジナル)

Automated feature engineering (AutoFE) is used to automatically create new features from original features to improve predictive performance without needing significant human intervention and domain expertise. Many algorithms exist for AutoFE, but very few approaches exist for the federated learning (FL) setting where data is gathered across many clients and is not shared between clients or a central server. We introduce AutoFE algorithms for the horizontal, vertical, and hybrid FL settings, which differ in how the data is gathered across clients. To the best of our knowledge, we are the first to develop AutoFE algorithms for the horizontal and hybrid FL cases, and we show that the downstream test scores of our federated AutoFE algorithms is close in performance to the case where data is held centrally and AutoFE is performed centrally.

arxiv情報

著者 Tom Overman,Diego Klabjan
発行日 2025-04-08 16:57:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.DC, cs.LG | Federated Automated Feature Engineering はコメントを受け付けていません

A score-based particle method for homogeneous Landau equation

要約

プラズマのLandau方程式を解くための新しいスコアベースの粒子法を提案します。これは、学習を構造圧力粒子法とシームレスに統合します[Arxiv:1910.03080]。
Landau方程式のラグランジアンの視点に基づいて、中心的な課題は、密度に対する速度場の非線形依存性に起因します。
私たちの主な革新は、この非線形性がスコア関数の形であることを認識することにあります。これは、スコアマッチングからの手法を介して動的に近似できます。
結果として得られる方法は、[arxiv:1910.03080]のカーネル密度推定の必要性を避けながら、決定論的粒子法の保存特性を継承します。
これにより、計算が合理化され、次元でスケーラビリティが向上します。
さらに、私たちの近似と真のソリューションとの間のKLの発散が、スコアを一致させる損失によって効果的に制御できることを実証することにより、理論的推定を提供します。
さらに、フローマップの視点を採用することにより、正確な密度計算のための更新式を導き出します。
クーロン相互作用の物理的に関連するケースを含む、方法の効率を示すための広範な例が提供されています。

要約(オリジナル)

We propose a novel score-based particle method for solving the Landau equation in plasmas, that seamlessly integrates learning with structure-preserving particle methods [arXiv:1910.03080]. Building upon the Lagrangian viewpoint of the Landau equation, a central challenge stems from the nonlinear dependence of the velocity field on the density. Our primary innovation lies in recognizing that this nonlinearity is in the form of the score function, which can be approximated dynamically via techniques from score-matching. The resulting method inherits the conservation properties of the deterministic particle method while sidestepping the necessity for kernel density estimation in [arXiv:1910.03080]. This streamlines computation and enhances scalability with dimensionality. Furthermore, we provide a theoretical estimate by demonstrating that the KL divergence between our approximation and the true solution can be effectively controlled by the score-matching loss. Additionally, by adopting the flow map viewpoint, we derive an update formula for exact density computation. Extensive examples have been provided to show the efficiency of the method, including a physically relevant case of Coulomb interaction.

arxiv情報

著者 Yan Huang,Li Wang
発行日 2025-04-08 17:00:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NA, math.NA | A score-based particle method for homogeneous Landau equation はコメントを受け付けていません

Variational Online Mirror Descent for Robust Learning in Schrödinger Bridge

要約

Sch \ ‘Odinger Bridge(SB)は、確率的生成モデルの普遍的なクラスに進化しました。
ただし、実際には、推定学習信号はしばしば不確実であり、既存の方法で約束された信頼性は、多くの場合、投機的な最適ケースシナリオに基づいています。
Mirror Descent(MD)を介したSinkhornアルゴリズムに関する最近の研究は注目を集めており、SB問題のソリューション獲得に関する幾何学的洞察を明らかにしています。
このホワイトペーパーでは、SB問題のバリエーションオンラインMD(OMD)フレームワークを提案します。これにより、SBソルバーにさらなる安定性が提供されます。
私たちは、SB獲得の新しいOMD定式化に対する収束と後悔を正式に証明しています。
その結果、Schr \ ‘Odinger電位のガウス混合パラメーター化のWasserstein-Fisher-rao幾何学を利用することにより、Variation Mirrored Schr \’ Odinger Bridge(VMSB)と呼ばれるシミュレーションのないSBアルゴリズムを提案します。
Wasserstein Gradient Flow理論に基づいて、アルゴリズムは、各OMDステップを正確に近似する扱いやすい学習ダイナミクスを提供します。
実験では、広範なベンチマークで提案されたVMSBアルゴリズムのパフォーマンスを検証します。
VMSBは、さまざまなSBの問題で現代のSBソルバーを一貫して上回り、理論によって予測される堅牢性を示しています。

要約(オリジナル)

Sch\’odinger bridge (SB) has evolved into a universal class of probabilistic generative models. In practice, however, estimated learning signals are often uncertain, and the reliability promised by existing methods is often based on speculative optimal-case scenarios. Recent studies regarding the Sinkhorn algorithm through mirror descent (MD) have gained attention, revealing geometric insights into solution acquisition of the SB problems. In this paper, we propose a variational online MD (OMD) framework for the SB problems, which provides further stability to SB solvers. We formally prove convergence and a regret bound for the novel OMD formulation of SB acquisition. As a result, we propose a simulation-free SB algorithm called Variational Mirrored Schr\’odinger Bridge (VMSB) by utilizing the Wasserstein-Fisher-Rao geometry of the Gaussian mixture parameterization for Schr\’odinger potentials. Based on the Wasserstein gradient flow theory, the algorithm offers tractable learning dynamics that precisely approximate each OMD step. In experiments, we validate the performance of the proposed VMSB algorithm across an extensive suite of benchmarks. VMSB consistently outperforms contemporary SB solvers on a range of SB problems, demonstrating the robustness predicted by our theory.

arxiv情報

著者 Dong-Sig Han,Jaein Kim,Hee Bin Yoo,Byoung-Tak Zhang
発行日 2025-04-08 17:49:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML | Variational Online Mirror Descent for Robust Learning in Schrödinger Bridge はコメントを受け付けていません

Stacking Variational Bayesian Monte Carlo

要約

変分状ベイジアンモンテカルロ(VBMC)は、計算上の高価な尤度を備えた近似ベイジアン推論のためのサンプル効率の良い方法です。
VBMCのローカル代理アプローチは安定した近似を提供しますが、その保守的な探査戦略と限られた評価予算により、複雑な事後の地域を見逃す可能性があります。
この作業では、スタッキングバイエーションベイジアンモンテカルロ(S-VBMC)を紹介します。これは、独立したVBMCをマージすることによりグローバルな後方近似を構築する方法を導入します。
私たちのアプローチは、VBMCの混合後の表現とコンポーネントごとの証拠の推定を活用しており、自然に平行化可能である間、追加の尤度評価を必要としません。
VBMCの探査能力と計算神経科学からの2つの実際のアプリケーションに挑戦するように設計された2つの合成問題に対するS-VBMCの有効性を示し、すべてのケースで後部近似品質の大幅な改善を示しています。

要約(オリジナル)

Variational Bayesian Monte Carlo (VBMC) is a sample-efficient method for approximate Bayesian inference with computationally expensive likelihoods. While VBMC’s local surrogate approach provides stable approximations, its conservative exploration strategy and limited evaluation budget can cause it to miss regions of complex posteriors. In this work, we introduce Stacking Variational Bayesian Monte Carlo (S-VBMC), a method that constructs global posterior approximations by merging independent VBMC runs through a principled and inexpensive post-processing step. Our approach leverages VBMC’s mixture posterior representation and per-component evidence estimates, requiring no additional likelihood evaluations while being naturally parallelizable. We demonstrate S-VBMC’s effectiveness on two synthetic problems designed to challenge VBMC’s exploration capabilities and two real-world applications from computational neuroscience, showing substantial improvements in posterior approximation quality across all cases.

arxiv情報

著者 Francesco Silvestrin,Chengkun Li,Luigi Acerbi
発行日 2025-04-08 17:56:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML | Stacking Variational Bayesian Monte Carlo はコメントを受け付けていません

Fractal and Regular Geometry of Deep Neural Networks

要約

深さが増加するにつれて、異なる活性化関数の遠足セットの境界体積を調査することにより、ランダムニューラルネットワークの幾何学的特性を研究します。
より具体的には、あまり規則的ではないアクティベーション(たとえば、重いステップ関数)については、境界体積がフラクタルの動作を示すことを示しています。
一方、より規則的なアクティベーション(例えば、relu、logistic、$ \ tanh $)の場合、深さが増加するにつれて、予想される境界体積は、簡単に計算できる単一のスペクトルパラメーターに応じて、ゼロに収束し、一定になるか、指数関数的に分岐する可能性があります。
理論的な結果は、モンテカルロシミュレーションに基づくいくつかの数値実験で確認されています。

要約(オリジナル)

We study the geometric properties of random neural networks by investigating the boundary volumes of their excursion sets for different activation functions, as the depth increases. More specifically, we show that, for activations which are not very regular (e.g., the Heaviside step function), the boundary volumes exhibit fractal behavior, with their Hausdorff dimension monotonically increasing with the depth. On the other hand, for activations which are more regular (e.g., ReLU, logistic and $\tanh$), as the depth increases, the expected boundary volumes can either converge to zero, remain constant or diverge exponentially, depending on a single spectral parameter which can be easily computed. Our theoretical results are confirmed in some numerical experiments based on Monte Carlo simulations.

arxiv情報

著者 Simmaco Di Lillo,Domenico Marinucci,Michele Salvi,Stefano Vigogna
発行日 2025-04-08 17:56:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 60G60, 62B10, 62M45, 68T07, cs.LG, math.PR, stat.ML | Fractal and Regular Geometry of Deep Neural Networks はコメントを受け付けていません

Large Language Models for Knowledge Graph Embedding: A Survey

要約

大規模な言語モデル(LLM)は、ワールドワイドウェブ上の多くの知識主導型アプリケーションで優れたパフォーマンスに大きな注目を集めています。これらのモデルは、数億個以上のパラメーターを大量のテキストデータでトレーニングするように設計されており、自然派を効果的に理解して生成できるようになります。
LLMSの優れたパフォーマンスが明らかになると、処理結果を改善するために、知識グラフ埋め込み(KGE)関連タスクにますます適用されています。
従来のKGE表現学習方法は、エンティティと関係を低次元ベクトル空間にマッピングし、ナレッジグラフのトリプルがベクトル空間の特定のスコアリング機能を満たすことを可能にします。
ただし、LLMSの強力な言語理解とSEMAN-TICモデリング機能に基づいて、最近、タスクの特性に応じてマルチモーダルKGE関連シナリオなど、さまざまな種類のKGE関連シナリオでさまざまな程度に呼び出されました。
この論文では、さまざまな種類のKGEシナリオでLLMS関連のタスクを実行するためのAWIDE範囲のアプローチを調査します。
さまざまなアプローチをよりよく比較するために、分類で各KGEシナリオを要約します。
最後に、メソッドが主に使用されているアプリケーションについて説明し、この新しい研究分野の開発のためのいくつかの将来の見通しの方向を提案します。

要約(オリジナル)

Large language models (LLMs) have garnered significant attention for their superior performance in many knowledge-driven applications on the world wide web.These models are designed to train hundreds of millions or more parameters on large amounts of text data, enabling them to understand and generate naturallanguage effectively. As the superior performance of LLMs becomes apparent,they are increasingly being applied to knowledge graph embedding (KGE) related tasks to improve the processing results. Traditional KGE representation learning methods map entities and relations into a low-dimensional vector space, enablingthe triples in the knowledge graph to satisfy a specific scoring function in thevector space. However, based on the powerful language understanding and seman-tic modeling capabilities of LLMs, that have recently been invoked to varying degrees in different types of KGE related scenarios such as multi-modal KGE andopen KGE according to their task characteristics. In this paper, we investigate awide range of approaches for performing LLMs-related tasks in different types of KGE scenarios. To better compare the various approaches, we summarize each KGE scenario in a classification. Finally, we discuss the applications in which the methods are mainly used and suggest several forward-looking directions for the development of this new research area.

arxiv情報

著者 Bingchen Liu,Yuanyuan Fang,Naixing Xu,Shihao Hou,Xin Li,Qian Li
発行日 2025-04-08 08:33:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | Large Language Models for Knowledge Graph Embedding: A Survey はコメントを受け付けていません

Recursive Training Loops in LLMs: How training data properties modulate distribution shift in generated data?

要約

大規模な言語モデル(LLM)は、インターネット上のコンテンツの作成にますます貢献しています。
これにより、この生成された合成データでその後の世代のモデルがトレーニングされるため、フィードバックループが作成されます。
この現象は、特に以前の研究が分布シフトにつながる可能性があることが示されているため、関心の高まりを受けています。モデルは、近似すると予想される人間データの真の根本的な分布を誤って伝え、忘れています(たとえば、品質の劇的な損失をもたらします)。
この研究では、反復トレーニングループの分布シフトダイナミクスに対するヒトデータプロパティの影響を研究します。
最初に、4つのデータセット(2つはTwitterに基づいてRedditに2つ)を比較することにより、分布シフトのダイナミクスが人間のデータによって大きく異なることを確認します。
次に、データの品質がこのシフトの速度に影響を与える可能性があるかどうかをテストします。
Twitterではそうであることがわかりますが、Redditデータセットではそうではありません。
次に、Redditデータセットに焦点を当て、データセットプロパティの大規模なセットのより徹底的な評価を実施します。
この実験は、語彙の多様性をより大きく、より大きな悪影響のあるセマンティックの多様性と関連付け、高い字句(しかし限られたセマンティック)の多様性を備えたテキストを組み込むことで、生成されたテキストの劣化を悪化させる可能性があることを示唆しています。
次に、政治的偏見の進化に焦点を当て、観察されたシフトの種類(バイアスの減少、増幅、または反転)は、人間(真の)分布の政治的リーンに依存することがわかります。
全体として、私たちの研究は、この現象がトレーニングが発生する人間のデータの特徴に大きく依存していることを示すことにより、再帰的な微調整の結果に関する既存の文献を拡張します。
これは、インターネットのさまざまな部分(Github、Redditなど)が、プロパティに応じてさまざまな種類のシフトを受ける可能性があることを示唆しています。

要約(オリジナル)

Large language models (LLMs) are increasingly contributing to the creation of content on the Internet. This creates a feedback loop as subsequent generations of models will be trained on this generated, synthetic data. This phenomenon is receiving increasing interest, in particular because previous studies have shown that it may lead to distribution shift – models misrepresent and forget the true underlying distributions of human data they are expected to approximate (e.g. resulting in a drastic loss of quality). In this study, we study the impact of human data properties on distribution shift dynamics in iterated training loops. We first confirm that the distribution shift dynamics greatly vary depending on the human data by comparing four datasets (two based on Twitter and two on Reddit). We then test whether data quality may influence the rate of this shift. We find that it does on the twitter, but not on the Reddit datasets. We then focus on a Reddit dataset and conduct a more exhaustive evaluation of a large set of dataset properties. This experiment associated lexical diversity with larger, and semantic diversity with smaller detrimental shifts, suggesting that incorporating text with high lexical (but limited semantic) diversity could exacerbate the degradation of generated text. We then focus on the evolution of political bias, and find that the type of shift observed (bias reduction, amplification or inversion) depends on the political lean of the human (true) distribution. Overall, our work extends the existing literature on the consequences of recursive fine-tuning by showing that this phenomenon is highly dependent on features of the human data on which training occurs. This suggests that different parts of internet (e.g. GitHub, Reddit) may undergo different types of shift depending on their properties.

arxiv情報

著者 Grgur Kovač,Jérémy Perez,Rémy Portelas,Peter Ford Dominey,Pierre-Yves Oudeyer
発行日 2025-04-08 08:45:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T50, cs.AI, cs.CL, cs.LG, I.2.7 | Recursive Training Loops in LLMs: How training data properties modulate distribution shift in generated data? はコメントを受け付けていません

MMTEB: Massive Multilingual Text Embedding Benchmark

要約

テキストの埋め込みは通常、言語、ドメイン、およびタスクの多様性によって制約される限られたタスクのセットで評価されます。
これらの制限に対処し、より包括的な評価を提供するために、MTEBの大規模でコミュニティ駆動型の拡張である大規模な多言語テキスト埋め込みベンチマーク(MMTEB)を紹介します。
MMTEBには、これまでの埋め込みモデルのための評価タスクの最大の多言語コレクションを表す、命令後の命令、長期文書検索、コード検索など、挑戦的で斬新なタスクのセットが含まれています。
このコレクションを使用して、いくつかの非常に多言語のベンチマークを開発します。これは、モデルの代表セットを評価するために使用します。
数十億のパラメーターを備えた大規模な言語モデル(LLM)は、特定の言語サブセットとタスクカテゴリで最先端のパフォーマンスを達成できることがわかりますが、最高のパフォーマンスで公開されているモデルは、5億6,000万パラメーターの多言語-E5-Large-Instructであることがわかります。
アクセシビリティを容易にし、計算コストを削減するために、タスク間の相関に基づいて新しいダウンサンプリング方法を導入し、相対モデルのランキングを維持しながら多様な選択を確保します。
さらに、ハードネガをサンプリングして、より小さくて効果的なスプリットを作成することにより、検索などのタスクを最適化します。
これらの最適化により、計算需要を大幅に削減するベンチマークを導入できます。
たとえば、新しく導入されたゼロショットの英語ベンチマークは、フルスケールバージョンと同様のランキング順序を維持していますが、計算コストのほんの一部です。

要約(オリジナル)

Text embeddings are typically evaluated on a limited set of tasks, which are constrained by language, domain, and task diversity. To address these limitations and provide a more comprehensive evaluation, we introduce the Massive Multilingual Text Embedding Benchmark (MMTEB) – a large-scale, community-driven expansion of MTEB, covering over 500 quality-controlled evaluation tasks across 250+ languages. MMTEB includes a diverse set of challenging, novel tasks such as instruction following, long-document retrieval, and code retrieval, representing the largest multilingual collection of evaluation tasks for embedding models to date. Using this collection, we develop several highly multilingual benchmarks, which we use to evaluate a representative set of models. We find that while large language models (LLMs) with billions of parameters can achieve state-of-the-art performance on certain language subsets and task categories, the best-performing publicly available model is multilingual-e5-large-instruct with only 560 million parameters. To facilitate accessibility and reduce computational cost, we introduce a novel downsampling method based on inter-task correlation, ensuring a diverse selection while preserving relative model rankings. Furthermore, we optimize tasks such as retrieval by sampling hard negatives, creating smaller but effective splits. These optimizations allow us to introduce benchmarks that drastically reduce computational demands. For instance, our newly introduced zero-shot English benchmark maintains a ranking order similar to the full-scale version but at a fraction of the computational cost.

arxiv情報

著者 Kenneth Enevoldsen,Isaac Chung,Imene Kerboua,Márton Kardos,Ashwin Mathur,David Stap,Jay Gala,Wissam Siblini,Dominik Krzemiński,Genta Indra Winata,Saba Sturua,Saiteja Utpala,Mathieu Ciancone,Marion Schaeffer,Gabriel Sequeira,Diganta Misra,Shreeya Dhakal,Jonathan Rystrøm,Roman Solomatin,Ömer Çağatan,Akash Kundu,Martin Bernstorff,Shitao Xiao,Akshita Sukhlecha,Bhavish Pahwa,Rafał Poświata,Kranthi Kiran GV,Shawon Ashraf,Daniel Auras,Björn Plüster,Jan Philipp Harries,Loïc Magne,Isabelle Mohr,Mariya Hendriksen,Dawei Zhu,Hippolyte Gisserot-Boukhlef,Tom Aarsen,Jan Kostkan,Konrad Wojtasik,Taemin Lee,Marek Šuppa,Crystina Zhang,Roberta Rocca,Mohammed Hamdy,Andrianos Michail,John Yang,Manuel Faysse,Aleksei Vatolin,Nandan Thakur,Manan Dey,Dipam Vasani,Pranjal Chitale,Simone Tedeschi,Nguyen Tai,Artem Snegirev,Michael Günther,Mengzhou Xia,Weijia Shi,Xing Han Lù,Jordan Clive,Gayatri Krishnakumar,Anna Maksimova,Silvan Wehrli,Maria Tikhonova,Henil Panchal,Aleksandr Abramov,Malte Ostendorff,Zheng Liu,Simon Clematide,Lester James Miranda,Alena Fenogenova,Guangyu Song,Ruqiya Bin Safi,Wen-Ding Li,Alessia Borghini,Federico Cassano,Hongjin Su,Jimmy Lin,Howard Yen,Lasse Hansen,Sara Hooker,Chenghao Xiao,Vaibhav Adlakha,Orion Weller,Siva Reddy,Niklas Muennighoff
発行日 2025-04-08 08:57:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.IR | MMTEB: Massive Multilingual Text Embedding Benchmark はコメントを受け付けていません

End-to-End Dialog Neural Coreference Resolution: Balancing Efficiency and Accuracy in Large-Scale Systems

要約

大規模な共同解像度は、自然言語処理に大きな課題を提示し、効率と精度のバランスを必要とします。
この課題に応えて、大規模なアプリケーションに合わせたエンドツーエンドのニューラルコアリファレンス解像度システムを導入します。
当社のシステムは、テキスト内のコアレファレンスリンクを効率的に識別および解決し、パフォーマンスを損なうことなく最小限の計算オーバーヘッドを確保します。
高度なニューラルネットワークアーキテクチャを利用することにより、Coreferenceペアの予測の質を高めるさまざまなコンテキスト埋め込みと注意メカニズムを組み込みます。
さらに、最適化戦略を適用して処理速度を加速し、システムを実際の展開に適しています。
ベンチマークデータセットで実施された広範な評価は、既存のアプローチと比較してモデルが精度を向上させ、迅速な推論時間を効果的に維持することを示しています。
厳密なテストにより、システムが正確なコアレファレンス解像度を効率的に提供する能力を確認し、それにより、この分野での将来の進歩のベンチマークを確立します。

要約(オリジナル)

Large-scale coreference resolution presents a significant challenge in natural language processing, necessitating a balance between efficiency and accuracy. In response to this challenge, we introduce an End-to-End Neural Coreference Resolution system tailored for large-scale applications. Our system efficiently identifies and resolves coreference links in text, ensuring minimal computational overhead without compromising on performance. By utilizing advanced neural network architectures, we incorporate various contextual embeddings and attention mechanisms, which enhance the quality of predictions for coreference pairs. Furthermore, we apply optimization strategies to accelerate processing speeds, making the system suitable for real-world deployment. Extensive evaluations conducted on benchmark datasets demonstrate that our model achieves improved accuracy compared to existing approaches, while effectively maintaining rapid inference times. Rigorous testing confirms the ability of our system to deliver precise coreference resolutions efficiently, thereby establishing a benchmark for future advancements in this field.

arxiv情報

著者 Zhang Dong,Songhang deng,Mingbang Wang,Le Dai,Jiyuan Li,Xingzu Liu,Ruilin Nong
発行日 2025-04-08 09:06:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | End-to-End Dialog Neural Coreference Resolution: Balancing Efficiency and Accuracy in Large-Scale Systems はコメントを受け付けていません

Leveraging Robust Optimization for LLM Alignment under Distribution Shifts

要約

大規模な言語モデル(LLMS)は、人間の価値に向かって出力を操作するための優先アライメント方法にますます依存していますが、これらの方法はしばしば高品質の人間に感染したデータの希少性によって制約されます。
これに取り組むために、最近のアプローチは、スケーラブルな代替品としてLLMSによって生成された合成データに変わりました。
ただし、合成データは分布シフトを導入し、望ましい出力に不可欠な微妙な人間の好みを損なう可能性があります。
この論文では、このようなシフトの存在下で優先順位のアライメントを改善する新しい配布認識最適化フレームワークを提案します。
私たちのアプローチは、最初に、学習された分類器を活用するターゲットとトレーニング分布との間の尤度比を推定し、次に、ターゲットのヒト優先分布を反映するデータ領域にわたる最悪の損失を最小限に抑えます。
最適化中にターゲット分布を明示的に優先することにより、この方法は分布の変動の悪影響を軽減し、人間の価値を忠実に反映する応答の生成を強化します。

要約(オリジナル)

Large language models (LLMs) increasingly rely on preference alignment methods to steer outputs toward human values, yet these methods are often constrained by the scarcity of high-quality human-annotated data. To tackle this, recent approaches have turned to synthetic data generated by LLMs as a scalable alternative. However, synthetic data can introduce distribution shifts, compromising the nuanced human preferences that are essential for desirable outputs. In this paper, we propose a novel distribution-aware optimization framework that improves preference alignment in the presence of such shifts. Our approach first estimates the likelihood ratios between the target and training distributions leveraging a learned classifier, then it minimizes the worst-case loss over data regions that reflect the target human-preferred distribution. By explicitly prioritizing the target distribution during optimization, our method mitigates the adverse effects of distributional variation and enhances the generation of responses that faithfully reflect human values.

arxiv情報

著者 Mingye Zhu,Yi Liu,Junbo Guo,Quan Wang,Yongdong Zhang,Zhendong Mao
発行日 2025-04-08 09:14:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Leveraging Robust Optimization for LLM Alignment under Distribution Shifts はコメントを受け付けていません