Generalization Bounds for Heavy-Tailed SDEs through the Fractional Fokker-Planck Equation

要約

重尾の確率的最適化アルゴリズムの一般化特性を理解することで、過去数年間で注目を集めています。
重尾の確率的微分方程式をプロキシとして使用して、確率的オプティマイザーの興味深い側面を照らしながら、以前の作品は予想される一般化境界を提供するか、計算不可能な情報理論的用語を導入しました。
これらの欠点に対処するこの作業では、非自明の情報理論的用語を含まない重尾部のSDEの高度な一般化境界線を証明します。
この目標を達成するために、いわゆる分数Fokker-Planck方程式に関連するエントロピーフローを推定することに基づいて、新しい証明技術を開発します(対応するヘビーテールSDEの分布の進化を支配する部分微分方程式)。
高度な境界を取得することに加えて、私たちの境界は、以前のARTと比較してパラメーターの次元により良い依存性があることを示します。
私たちの結果は、相転移現象をさらに特定します。これは、問題の構造に応じて、重い尾が有益または有害であることを示唆しています。
私たちは、さまざまな設定で行われた実験で理論をサポートしています。

要約(オリジナル)

Understanding the generalization properties of heavy-tailed stochastic optimization algorithms has attracted increasing attention over the past years. While illuminating interesting aspects of stochastic optimizers by using heavy-tailed stochastic differential equations as proxies, prior works either provided expected generalization bounds, or introduced non-computable information theoretic terms. Addressing these drawbacks, in this work, we prove high-probability generalization bounds for heavy-tailed SDEs which do not contain any nontrivial information theoretic terms. To achieve this goal, we develop new proof techniques based on estimating the entropy flows associated with the so-called fractional Fokker-Planck equation (a partial differential equation that governs the evolution of the distribution of the corresponding heavy-tailed SDE). In addition to obtaining high-probability bounds, we show that our bounds have a better dependence on the dimension of parameters as compared to prior art. Our results further identify a phase transition phenomenon, which suggests that heavy tails can be either beneficial or harmful depending on the problem structure. We support our theory with experiments conducted in a variety of settings.

arxiv情報

著者 Benjamin Dupuis,Umut Şimşekli
発行日 2025-06-02 12:31:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML | Generalization Bounds for Heavy-Tailed SDEs through the Fractional Fokker-Planck Equation はコメントを受け付けていません

Statistical Taylor Expansion

要約

統計的テイラー拡張は、従来のテイラー拡張の入力正確な変数を、それぞれ既知の分布を持つランダム変数を備えており、結果平均と偏差を計算します。
これは、無相関の不確実性の仮定に基づいています。各入力変数は、十分な統計精度で独立して測定され、不確実性が互いに独立しています。
従来の統計とは異なり、各入力サンプルカウントが入力として必要です。
統計的テイラー拡張は、中間分析式が互いに独立していると見なすことができなくなったとレビューし、分析式の結果はパスに依存する必要があります。
この結論は、適用された数学の従来の一般的なアプローチと根本的に異なり、結果に最適な実行パスを見つけます。
このペーパーでは、分散算術と呼ばれる統計テイラー拡張の実装と、分散算術に関するテストも提示します。

要約(オリジナル)

Statistical Taylor expansion replaces the input precise variables in a conventional Taylor expansion with random variables each with known distribution, to calculate the result mean and deviation. It is based on the uncorrelated uncertainty assumption: Each input variable is measured independently with fine enough statistical precision, so that their uncertainties are independent of each other. Unlike traditional statistics, it requires each input sample count as an input. Statistical Taylor expansion reviews that the intermediate analytic expressions can no longer be regarded as independent of each other, and the result of analytic expression should be path independent. This conclusion differs fundamentally from the conventional common approach in applied mathematics to find the best execution path for a result. This paper also presents an implementation of statistical Taylor expansion called variance arithmetic, and the tests on variance arithmetic.

arxiv情報

著者 Chengpu Wang
発行日 2025-06-02 14:24:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 65G99, cs.LG, G.3.2, stat.CO | Statistical Taylor Expansion はコメントを受け付けていません

Humans Coexist, So Must Embodied Artificial Agents

要約

このペーパーでは、具体化された人工剤の共存の概念を紹介し、それが人間との長期的な内部の相互作用の前提条件であると主張しています。
現代の具体化された人工剤は、静的で定義されたタスクに優れていますが、人間との動的および長期的な相互作用には不足しています。
一方、人間は継続的に順応して進化することができ、環境や他のエージェントに埋め込まれた状況の知識を活用して、意味のある相互作用に貢献できます。
私たちは、生物学と設計理論から導き出して、さまざまなレベルの組織で学際的なアプローチを採用して、人間と非人間の生物が特定の環境内で共存する存在をどのように促進するかを理解します。
最後に、人工知能コミュニティが共存する具体化されたエージェントを開発するための重要な研究の方向性を提案し、それらを形作る原則、ハードウェア、学習方法に焦点を当てています。

要約(オリジナル)

This paper introduces the concept of coexistence for embodied artificial agents and argues that it is a prerequisite for long-term, in-the-wild interaction with humans. Contemporary embodied artificial agents excel in static, predefined tasks but fall short in dynamic and long-term interactions with humans. On the other hand, humans can adapt and evolve continuously, exploiting the situated knowledge embedded in their environment and other agents, thus contributing to meaningful interactions. We take an interdisciplinary approach at different levels of organization, drawing from biology and design theory, to understand how human and non-human organisms foster entities that coexist within their specific environments. Finally, we propose key research directions for the artificial intelligence community to develop coexisting embodied agents, focusing on the principles, hardware and learning methods responsible for shaping them.

arxiv情報

著者 Hannah Kuehn,Joseph La Delfa,Miguel Vasco,Danica Kragic,Iolanda Leite
発行日 2025-06-02 14:32:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Humans Coexist, So Must Embodied Artificial Agents はコメントを受け付けていません

BOPO: Neural Combinatorial Optimization via Best-anchored and Objective-guided Preference Optimization

要約

神経組み合わせ最適化(NCO)は、NPハードの問題に対する有望なアプローチとして浮上しています。
ただし、RLベースの方法が一般的には、まばらな報酬と過少使用のソリューションにより、サンプル効率が低いことに悩まされています。
客観的な値を介してソリューションの好みを活用するトレーニングパラダイムである、ベストアンカーと客観的ガイド付き選好最適化(BOPO)を提案します。
(1)ソリューションをより適切に調査および活用するためのベストアンカーの好みのペア構造、および(2)客観的な違いを介して勾配を適応的にスケーリングし、報酬モデルまたは参照ポリシーへの依存を除去する客観的なガイド付きペアワイズ損失関数。
ジョブショップスケジューリングの問題(JSP)、巡回セールスマンの問題(TSP)、および柔軟なジョブショップスケジューリング問題(FJSP)の実験は、Bopoが最先端のニューラル方法を上回り、効率的な推論で最適性のギャップを印象的に減らすことを示しています。
Bopoはアーキテクチャに依存しており、既存のNCOモデルとのシームレスな統合を可能にし、組み合わせ最適化の原則的なフレームワークとして優先最適化を確立します。

要約(オリジナル)

Neural Combinatorial Optimization (NCO) has emerged as a promising approach for NP-hard problems. However, prevailing RL-based methods suffer from low sample efficiency due to sparse rewards and underused solutions. We propose Best-anchored and Objective-guided Preference Optimization (BOPO), a training paradigm that leverages solution preferences via objective values. It introduces: (1) a best-anchored preference pair construction for better explore and exploit solutions, and (2) an objective-guided pairwise loss function that adaptively scales gradients via objective differences, removing reliance on reward models or reference policies. Experiments on Job-shop Scheduling Problem (JSP), Traveling Salesman Problem (TSP), and Flexible Job-shop Scheduling Problem (FJSP) show BOPO outperforms state-of-the-art neural methods, reducing optimality gaps impressively with efficient inference. BOPO is architecture-agnostic, enabling seamless integration with existing NCO models, and establishes preference optimization as a principled framework for combinatorial optimization.

arxiv情報

著者 Zijun Liao,Jinbiao Chen,Debing Wang,Zizhen Zhang,Jiahai Wang
発行日 2025-06-02 15:44:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | BOPO: Neural Combinatorial Optimization via Best-anchored and Objective-guided Preference Optimization はコメントを受け付けていません

Dynamic Consistent $k$-Center Clustering with Optimal Recourse

要約

敵から送信された任意のメトリック空間と一連のポイントアップデートからのポイントは、$ k $クラスタリング問題の一定の因子近似を維持するために、アップデートごとの最小償還(つまり、更新後にセンターのセットに必要な変更の最小変更数)は何ですか?
この質問は、一貫したクラスタリングという名前で近年注目を集めています。
LattanziとVassilvitskii [ICLM ’17]とFichtenberger、Lattanzi、Norouzi-Fard、およびSvensson [Soda ’21]による以前の作品は、$ K $ -Centerおよび$ K $ -Medianの目的を含む$ K $ Clustering目標を研究しました。
このホワイトペーパーでは、完全に動的な設定で$ k $ center目的を研究します。ここでは、更新はポイント挿入またはポイント削除のいずれかです。
私たちの作業の前に、{\ l} \ k {a} cki、haeupler、grunau、rozho \ v {n}、およびjayaram [soda ’24]は、$ 2 $ per $ perの最悪の復seとの$ k-center目的のための決定論的な完全に動的な定数因子近似アルゴリズムを与えました。
この作業では、$ K $ -CENTERクラスタリングの問題が、更新ごとに最悪のケースのリクルースを$ 1 $の決定論的に完全に動的な定数因子近似アルゴリズムを開発することにより、最適な頼みの範囲を認めていることを証明します。
さらに、当社のアルゴリズムは、光データ構造に基づいて単純な選択を実行するため、洗練された組み合わせ構造を使用する前のものよりも直接的かつ高速です。
さらに、新しい決定論的減少アルゴリズムと新しい決定論的増分アルゴリズムを開発します。どちらも、アップデートあたり1ドルの最悪のリコースを備えた6ドルの$ Approximate $ k $ centerソリューションを維持します。
私たちのインクリメンタルアルゴリズムは、Charikar、Chekuri、Feder、およびMotwani [STOC ’97]による8ドルの承認アルゴリズムで改善されます。
最後に、私たちのアルゴリズムの3つすべてが決定論的であるため、適応的な敵に対して働くことに注意してください。

要約(オリジナル)

Given points from an arbitrary metric space and a sequence of point updates sent by an adversary, what is the minimum recourse per update (i.e., the minimum number of changes needed to the set of centers after an update), in order to maintain a constant-factor approximation to a $k$-clustering problem? This question has received attention in recent years under the name consistent clustering. Previous works by Lattanzi and Vassilvitskii [ICLM ’17] and Fichtenberger, Lattanzi, Norouzi-Fard, and Svensson [SODA ’21] studied $k$-clustering objectives, including the $k$-center and the $k$-median objectives, under only point insertions. In this paper we study the $k$-center objective in the fully dynamic setting, where the update is either a point insertion or a point deletion. Before our work, {\L}\k{a}cki, Haeupler, Grunau, Rozho\v{n}, and Jayaram [SODA ’24] gave a deterministic fully dynamic constant-factor approximation algorithm for the $k$-center objective with worst-case recourse of $2$ per update. In this work, we prove that the $k$-center clustering problem admits optimal recourse bounds by developing a deterministic fully dynamic constant-factor approximation algorithm with worst-case recourse of $1$ per update. Moreover our algorithm performs simple choices based on light data structures, and thus is arguably more direct and faster than the previous one which uses a sophisticated combinatorial structure. Additionally, we develop a new deterministic decremental algorithm and a new deterministic incremental algorithm, both of which maintain a $6$-approximate $k$-center solution with worst-case recourse of $1$ per update. Our incremental algorithm improves over the $8$-approximation algorithm by Charikar, Chekuri, Feder, and Motwani [STOC ’97]. Finally, we remark that since all three of our algorithms are deterministic, they work against an adaptive adversary.

arxiv情報

著者 Sebastian Forster,Antonis Skarlatos
発行日 2025-06-02 16:28:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.DS, cs.LG | Dynamic Consistent $k$-Center Clustering with Optimal Recourse はコメントを受け付けていません

The Energy Loss Phenomenon in RLHF: A New Perspective on Mitigating Reward Hacking

要約

この作業は、人間のフィードバック(RLHF)からの補強学習におけるエネルギー損失現象と、報酬ハッキングへの接続を特定します。
具体的には、大規模な言語モデル(LLM)の最終層のエネルギー損失は、RLプロセス中に徐々に増加し、報酬のハッキングを特徴付けるエネルギー損失の過剰な増加があります。
経験的分析を超えて、軽度の条件下では、エネルギー損失の増加がLLMSの文脈的関連性の上限を減らすことを証明することにより、理論的基盤をさらに提供します。
この問題に対処するために、過度のエネルギー損失を防ぎ、報酬ハッキングを緩和するために、報酬計算中にLLMの最終層のエネルギー損失の増加を罰するエネルギー損失を認めるPPOアルゴリズム(EPPO)を提案します。
EPPOは、その有効性に関するより深い洞察を提供するエントロピー正規化RLアルゴリズムとして概念的に解釈できることを理論的に示しています。
さまざまなLLMSおよびタスクにわたる広範な実験は、エネルギー損失現象の共通性と、報酬のハッキングとRLHFパフォーマンスの改善を軽減する上でのEPPOの有効性を示しています。

要約(オリジナル)

This work identifies the Energy Loss Phenomenon in Reinforcement Learning from Human Feedback (RLHF) and its connection to reward hacking. Specifically, energy loss in the final layer of a Large Language Model (LLM) gradually increases during the RL process, with an excessive increase in energy loss characterizing reward hacking. Beyond empirical analysis, we further provide a theoretical foundation by proving that, under mild conditions, the increased energy loss reduces the upper bound of contextual relevance in LLMs, which is a critical aspect of reward hacking as the reduced contextual relevance typically indicates overfitting to reward model-favored patterns in RL. To address this issue, we propose an Energy loss-aware PPO algorithm (EPPO) which penalizes the increase in energy loss in the LLM’s final layer during reward calculation to prevent excessive energy loss, thereby mitigating reward hacking. We theoretically show that EPPO can be conceptually interpreted as an entropy-regularized RL algorithm, which provides deeper insights into its effectiveness. Extensive experiments across various LLMs and tasks demonstrate the commonality of the energy loss phenomenon, as well as the effectiveness of EPPO in mitigating reward hacking and improving RLHF performance.

arxiv情報

著者 Yuchun Miao,Sen Zhang,Liang Ding,Yuqi Zhang,Lefei Zhang,Dacheng Tao
発行日 2025-06-02 16:30:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | The Energy Loss Phenomenon in RLHF: A New Perspective on Mitigating Reward Hacking はコメントを受け付けていません

LexGen: Domain-aware Multilingual Lexicon Generation

要約

レキシコンまたはドメイン全体の辞書の生成は、言語のアイデンティティを保存しながら、多様なユーザーベースの情報アクセシビリティを潜在的に強化できるため、社会的影響の可能性があります。
この分野での以前の研究は、主にバイリンガルの語彙誘導に焦点を当てており、マッピングまたはコーパスベースのアプローチを使用して単語のアライメントを扱っています。
ただし、これらのアプローチは、ドメイン固有の用語で構成されるドメイン固有のレキシコン生成に対応するものではありません。
このタスクは、特に低/リソース言語に対してドメイン固有の用語を含むデータの非常に頻繁に使用されるため、専門的な医療、工学、およびその他の技術ドメインで特に重要になります。
このホワイトペーパーでは、マルチドメイン設定で6ドルのインド言語の辞書単語を生成する新しいモデルを提案します。
私たちのモデルは、情報をエンコードするドメイン固有のドメイン一般的なレイヤーで構成されており、これらのレイヤーは学習可能なルーティング手法を介して呼び出されます。
また、8つの多様なドメインにまたがる6つのインド言語にわたる75Kの翻訳ペアで構成される新しいベンチマークデータセットをリリースします。複数のドメインでゼロショットと少数のショット実験の両方を実施して、目に見えないドメインと目に見えない言語に一般化する際に提案されたモデルの有効性を示します。
さらに、目に見えない言語での事後の人間の評価も実行します。
ソースコードとデータセットはhttps://github.com/atulkmrsingh/lexgenに存在します。

要約(オリジナル)

Lexicon or dictionary generation across domains has the potential for societal impact, as it can potentially enhance information accessibility for a diverse user base while preserving language identity. Prior work in the field primarily focuses on bilingual lexical induction, which deals with word alignments using mapping or corpora-based approaches. However, these approaches do not cater to domain-specific lexicon generation that consists of domain-specific terminology. This task becomes particularly important in specialized medical, engineering, and other technical domains, owing to the highly infrequent usage of the terms and scarcity of data involving domain-specific terms especially for low/mid-resource languages. In this paper, we propose a new model to generate dictionary words for $6$ Indian languages in the multi-domain setting. Our model consists of domain-specific and domain-generic layers that encode information, and these layers are invoked via a learnable routing technique. We also release a new benchmark dataset consisting of >75K translation pairs across 6 Indian languages spanning 8 diverse domains.We conduct both zero-shot and few-shot experiments across multiple domains to show the efficacy of our proposed model in generalizing to unseen domains and unseen languages. Additionally, we also perform a post-hoc human evaluation on unseen languages. The source code and dataset is present at https://github.com/Atulkmrsingh/lexgen.

arxiv情報

著者 Ayush Maheshwari,Atul Kumar Singh,Karthika NJ,Krishnakant Bhatt,Preethi Jyothi,Ganesh Ramakrishnan
発行日 2025-06-02 11:31:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | LexGen: Domain-aware Multilingual Lexicon Generation はコメントを受け付けていません

GrammaMT: Improving Machine Translation with Grammar-Informed In-Context Learning

要約

GrammAmtを紹介します。これは、ソース文の形態学的および語彙注釈を提供する言語記述の一般的な形式であるインターリニアグロステキスト(IGT)を使用する機械翻訳の文法的に意識するプロンプトアプローチです。
Grammamtは、Gloss-Shot、Chain-Gloss、Model-Glossの3つのプロンプト戦略を提案しています。
全員がトレーニングなしで、収集するための最小限の努力を伴ういくつかの例のみが必要であり、リソースの低いセットアップに適したものにします。
実験では、グラマムトが3つのベンチマークにわたるさまざまな低リソース言語のオープンソース命令チューニングLLMの翻訳パフォーマンスを向上させることを示しています。(1)最大のIGTコーパス、(2)挑戦的な2023 Sigmorphon共有タスクデータは、絶え間ない言語でタスクデータを共有します。
さらに、アブレーションの研究により、LLMSが入力文のグロスを正確に生成またはアクセスすると、光沢リソースを活用すると、MTパフォーマンスが大幅にMTパフォーマンスを高めることができることが明らかになりました。

要約(オリジナル)

We introduce GrammaMT, a grammatically-aware prompting approach for machine translation that uses Interlinear Glossed Text (IGT), a common form of linguistic description providing morphological and lexical annotations for source sentences. GrammaMT proposes three prompting strategies: gloss-shot, chain-gloss and model-gloss. All are training-free, requiring only a few examples that involve minimal effort to collect, and making them well-suited for low-resource setups. Experiments show that GrammaMT enhances translation performance on open-source instruction-tuned LLMs for various low- to high-resource languages across three benchmarks: (1) the largest IGT corpus, (2) the challenging 2023 SIGMORPHON Shared Task data over endangered languages, and (3) even in an out-of-domain setting with FLORES. Moreover, ablation studies reveal that leveraging gloss resources could substantially boost MT performance (by over 17 BLEU points) if LLMs accurately generate or access input sentence glosses.

arxiv情報

著者 Rita Ramos,Everlyn Asiko Chimoto,Maartje ter Hoeve,Natalie Schluter
発行日 2025-06-02 14:23:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | GrammaMT: Improving Machine Translation with Grammar-Informed In-Context Learning はコメントを受け付けていません

Beyond Examples: High-level Automated Reasoning Paradigm in In-Context Learning via MCTS

要約

コンテキスト学習(ICL)により、高度なプロンプトと高品質のデモンストレーションを通じて、大規模な言語モデル(LLMS)がダウンストリームタスクを実行できます。
ただし、従来のICLパラダイムは、主に明示的な推論ガイダンスの品質と欠如に依存することに起因する複雑な推論タスクで大きな制限に遭遇します。
これらの課題に対処するために、HIAR-ICL、a ** hi ** gh-level ** a ** utomated ** r ** ICL **のイーソンパラダイムを紹介します。
私たちのアプローチは、5つの原子推論アクションを定義することから始まります。このアクションでは、モンテカルロツリー検索を使用して、高レベルの推論パターンを体系的に構築します。
推論中、HIAR-ICLは問題属性に基づいて適切な推論パターンを動的に選択し、モデルの推論プロセスの明示的なガイダンスを提供します。
実験では、HIAR-ICLの有効性と効率性が示されています。QWEN2.5-7B-Instructを使用した200の以前のサンプルのみを利用して、私たちの方法はMATHで80.6%の精度を達成し、AMCで62.5%を達成し、GPT-4oの77.2%と57.5%を超えています。
私たちのアプローチは、さまざまなサイズのモデル全体でパフォーマンスを向上させ、ドメイン全体で効果的に一般化します。
さらなる分析により、HIAR-ICLは、GRPOなどのトレーニング後の手法と互換性のあるプラグアンドプレイ推論方法としても機能することが明らかになりました。
コードとデータはhttps://github.com/jinyangwu/hiariclで入手できます。

要約(オリジナル)

In-context learning (ICL) enables large language models (LLMs) to perform downstream tasks through advanced prompting and high-quality demonstrations. However, traditional ICL paradigms encounter significant limitations in complex reasoning tasks, stemming primarily from their dependence on example quality and absence of explicit reasoning guidance. To address these challenges, we introduce HiAR-ICL, a **Hi**gh-level **A**utomated **R**easoning paradigm in **ICL** that shifts focus from specific examples to abstract reasoning patterns, thereby extending the conventional concept of ‘context’ in ICL. Our approach begins by defining five atomic reasoning actions, upon which we employ Monte Carlo Tree Search to systematically construct high-level reasoning patterns. During inference, HiAR-ICL dynamically selects appropriate reasoning patterns based on problem attributes, providing explicit guidance for the model’s reasoning process. Experiments demonstrate HiAR-ICL’s effectiveness and efficiency: utilizing only 200 prior samples with Qwen2.5-7B-Instruct, our method achieves 80.6% accuracy on MATH and 62.5% on AMC, exceeding GPT-4o’s 77.2% and 57.5%. Our approach enhances performance across models of varying sizes while generalizing effectively across domains. Further analysis reveals that HiAR-ICL can also serve as a plug-and-play inference method compatible with post-training techniques like GRPO. Code and data are available at https://github.com/jinyangwu/HiARICL.

arxiv情報

著者 Jinyang Wu,Mingkuan Feng,Shuai Zhang,Feihu Che,Zengqi Wen,Chonghua Liao,Jianhua Tao
発行日 2025-06-02 14:26:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Beyond Examples: High-level Automated Reasoning Paradigm in In-Context Learning via MCTS はコメントを受け付けていません

Pitfalls of Scale: Investigating the Inverse Task of Redefinition in Large Language Models

要約

逆タスクは、大規模な言語モデル(LLM)のスケールアップとして、潜在的な推論ギャップを明らかにすることができます。
この作業では、再定義タスクを調査します。このタスクでは、よく知られている物理定数と測定単位に代替値を割り当て、LLMSにそれに応じて応答するように促します。
私たちの調査結果は、モデルのパフォーマンスがスケールで低下するだけでなく、その誤った信頼も上昇することを示しています。
さらに、戦略の促進や応答のフォーマットなどの要因は影響力がありますが、LLMはアンカーから記憶された値まで排除しません。

要約(オリジナル)

Inverse tasks can uncover potential reasoning gaps as Large Language Models (LLMs) scale up. In this work, we explore the redefinition task, in which we assign alternative values to well-known physical constants and units of measure, prompting LLMs to respond accordingly. Our findings show that not only does model performance degrade with scale, but its false confidence also rises. Moreover, while factors such as prompting strategies or response formatting are influential, they do not preclude LLMs from anchoring to memorized values.

arxiv情報

著者 Elena Stringli,Maria Lymperaiou,Giorgos Filandrianos,Athanasios Voulodimos,Giorgos Stamou
発行日 2025-06-02 15:40:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Pitfalls of Scale: Investigating the Inverse Task of Redefinition in Large Language Models はコメントを受け付けていません