cs.LG」カテゴリーアーカイブ

Accelerating Matroid Optimization through Fast Imprecise Oracles

要約 正確な情報を得るために複雑なモデル (トラフィック モデル、データベース … 続きを読む

カテゴリー: cs.DS, cs.LG | Accelerating Matroid Optimization through Fast Imprecise Oracles はコメントを受け付けていません

Enhancing Transformer Training Efficiency with Dynamic Dropout

要約 Dynamic Dropout は、トレーニング エポックまたは検証損失の … 続きを読む

カテゴリー: cs.LG | Enhancing Transformer Training Efficiency with Dynamic Dropout はコメントを受け付けていません

Evaluation of Active Feature Acquisition Methods for Time-varying Feature Settings

要約 機械学習手法では、多くの場合、入力特徴が無料で利用できることを前提としてい … 続きを読む

カテゴリー: cs.LG, stat.ML | Evaluation of Active Feature Acquisition Methods for Time-varying Feature Settings はコメントを受け付けていません

Proxy-informed Bayesian transfer learning with unknown sources

要約 トレーニング データの範囲外で一般化するには、異なるデータ ソース間で伝達 … 続きを読む

カテゴリー: cs.LG, stat.ML | Proxy-informed Bayesian transfer learning with unknown sources はコメントを受け付けていません

Stable Matching with Ties: Approximation Ratios and Learning

要約 私たちは、市場の一方の側が他方のメンバーよりも厳密な優先順位を必ずしも持っ … 続きを読む

カテゴリー: cs.GT, cs.LG | Stable Matching with Ties: Approximation Ratios and Learning はコメントを受け付けていません

Graph-Based Semi-Supervised Segregated Lipschitz Learning

要約 この論文では、グラフ上のリプシッツ学習を使用したデータの分類のための半教師 … 続きを読む

カテゴリー: cs.DM, cs.LG | Graph-Based Semi-Supervised Segregated Lipschitz Learning はコメントを受け付けていません

Oblivious Defense in ML Models: Backdoor Removal without Detection

要約 社会が機械学習への依存を強めるにつれ、高度な攻撃に対する機械学習システムの … 続きを読む

カテゴリー: cs.CC, cs.CR, cs.LG | Oblivious Defense in ML Models: Backdoor Removal without Detection はコメントを受け付けていません

Statistical Properties of Deep Neural Networks with Dependent Data

要約 この論文では、依存データの下でディープ ニューラル ネットワーク (DNN … 続きを読む

カテゴリー: (Primary), 62M10, cs.LG, econ.EM, G.3, stat.ML | Statistical Properties of Deep Neural Networks with Dependent Data はコメントを受け付けていません

Limits of Transformer Language Models on Learning to Compose Algorithms

要約 私たちは、構成的離散タスクを学習する際の Transformer 言語モデ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Limits of Transformer Language Models on Learning to Compose Algorithms はコメントを受け付けていません

TokenSelect: Efficient Long-Context Inference and Length Extrapolation for LLMs via Dynamic Token-Level KV Cache Selection

要約 大規模言語モデル (LLM) の開発により、より長いコンテキストを処理する … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | TokenSelect: Efficient Long-Context Inference and Length Extrapolation for LLMs via Dynamic Token-Level KV Cache Selection はコメントを受け付けていません