投稿者「jarxiv」のアーカイブ

Generalization Bounds for Heavy-Tailed SDEs through the Fractional Fokker-Planck Equation

要約 重尾の確率的最適化アルゴリズムの一般化特性を理解することで、過去数年間で注 … 続きを読む

カテゴリー: cs.LG, stat.ML | Generalization Bounds for Heavy-Tailed SDEs through the Fractional Fokker-Planck Equation はコメントを受け付けていません

Statistical Taylor Expansion

要約 統計的テイラー拡張は、従来のテイラー拡張の入力正確な変数を、それぞれ既知の … 続きを読む

カテゴリー: 65G99, cs.LG, G.3.2, stat.CO | Statistical Taylor Expansion はコメントを受け付けていません

Humans Coexist, So Must Embodied Artificial Agents

要約 このペーパーでは、具体化された人工剤の共存の概念を紹介し、それが人間との長 … 続きを読む

カテゴリー: cs.LG | Humans Coexist, So Must Embodied Artificial Agents はコメントを受け付けていません

BOPO: Neural Combinatorial Optimization via Best-anchored and Objective-guided Preference Optimization

要約 神経組み合わせ最適化(NCO)は、NPハードの問題に対する有望なアプローチ … 続きを読む

カテゴリー: cs.LG | BOPO: Neural Combinatorial Optimization via Best-anchored and Objective-guided Preference Optimization はコメントを受け付けていません

Dynamic Consistent $k$-Center Clustering with Optimal Recourse

要約 敵から送信された任意のメトリック空間と一連のポイントアップデートからのポイ … 続きを読む

カテゴリー: cs.DS, cs.LG | Dynamic Consistent $k$-Center Clustering with Optimal Recourse はコメントを受け付けていません

The Energy Loss Phenomenon in RLHF: A New Perspective on Mitigating Reward Hacking

要約 この作業は、人間のフィードバック(RLHF)からの補強学習におけるエネルギ … 続きを読む

カテゴリー: cs.LG | The Energy Loss Phenomenon in RLHF: A New Perspective on Mitigating Reward Hacking はコメントを受け付けていません

LexGen: Domain-aware Multilingual Lexicon Generation

要約 レキシコンまたはドメイン全体の辞書の生成は、言語のアイデンティティを保存し … 続きを読む

カテゴリー: cs.CL | LexGen: Domain-aware Multilingual Lexicon Generation はコメントを受け付けていません

GrammaMT: Improving Machine Translation with Grammar-Informed In-Context Learning

要約 GrammAmtを紹介します。これは、ソース文の形態学的および語彙注釈を提 … 続きを読む

カテゴリー: cs.CL | GrammaMT: Improving Machine Translation with Grammar-Informed In-Context Learning はコメントを受け付けていません

Beyond Examples: High-level Automated Reasoning Paradigm in In-Context Learning via MCTS

要約 コンテキスト学習(ICL)により、高度なプロンプトと高品質のデモンストレー … 続きを読む

カテゴリー: cs.CL | Beyond Examples: High-level Automated Reasoning Paradigm in In-Context Learning via MCTS はコメントを受け付けていません

Pitfalls of Scale: Investigating the Inverse Task of Redefinition in Large Language Models

要約 逆タスクは、大規模な言語モデル(LLM)のスケールアップとして、潜在的な推 … 続きを読む

カテゴリー: cs.CL | Pitfalls of Scale: Investigating the Inverse Task of Redefinition in Large Language Models はコメントを受け付けていません