cs.LG」カテゴリーアーカイブ

Don’t Push the Button! Exploring Data Leakage Risks in Machine Learning and Transfer Learning

要約 機械学習(ML)はさまざまなドメインに革命をもたらし、いくつかの分野で予測 … 続きを読む

カテゴリー: cs.AI, cs.LG | Don’t Push the Button! Exploring Data Leakage Risks in Machine Learning and Transfer Learning はコメントを受け付けていません

Real-time Adapting Routing (RAR): Improving Efficiency Through Continuous Learning in Software Powered by Layered Foundation Models

要約 ファンデーションモデル(FM、大規模言語モデル(LLMS)などのFM)のバ … 続きを読む

カテゴリー: cs.AI, cs.LG, cs.MA | Real-time Adapting Routing (RAR): Improving Efficiency Through Continuous Learning in Software Powered by Layered Foundation Models はコメントを受け付けていません

Stochastic interior-point methods for smooth conic optimization with applications

要約 円錐最適化は、多くの機械学習(ML)の問題で重要な役割を果たします。 ただ … 続きを読む

カテゴリー: 90C25, 90C30, cs.AI, cs.LG, math.OC | Stochastic interior-point methods for smooth conic optimization with applications はコメントを受け付けていません

Causally Reliable Concept Bottleneck Models

要約 概念ベースのモデルは、人間が解釈可能な変数を介して動作する推論プロセスを制 … 続きを読む

カテゴリー: cs.AI, cs.LG | Causally Reliable Concept Bottleneck Models はコメントを受け付けていません

(Im)possibility of Automated Hallucination Detection in Large Language Models

要約 自動幻覚検出は可能ですか? この作業では、大規模な言語モデル(LLM)によ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, stat.ML | (Im)possibility of Automated Hallucination Detection in Large Language Models はコメントを受け付けていません

Estimating LLM Consistency: A User Baseline vs Surrogate Metrics

要約 大規模な言語モデル(LLM)は幻覚を起こしやすく、緊急摂動に敏感であり、し … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.HC, cs.LG | Estimating LLM Consistency: A User Baseline vs Surrogate Metrics はコメントを受け付けていません

Improving Transformer World Models for Data-Efficient RL

要約 モデルベースのRLへのアプローチを提示します。これは、挑戦的なCrafta … 続きを読む

カテゴリー: cs.AI, cs.LG | Improving Transformer World Models for Data-Efficient RL はコメントを受け付けていません

Universal Value-Function Uncertainties

要約 価値関数における認識論的不確実性の推定は、効率的な調査、安全な意思決定、オ … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ML | Universal Value-Function Uncertainties はコメントを受け付けていません

Mind the Gap: A Practical Attack on GGUF Quantization

要約 フロンティアLLMのサイズが増加すると、トレーニング後の量子化がメモリ効率 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | Mind the Gap: A Practical Attack on GGUF Quantization はコメントを受け付けていません

R-LoRA: Randomized Multi-Head LoRA for Efficient Multi-Task Learning

要約 大型言語モデル(LLMS)は計算高価であり、低ランクの適応(LORA)は、 … 続きを読む

カテゴリー: cs.AI, cs.LG | R-LoRA: Randomized Multi-Head LoRA for Efficient Multi-Task Learning はコメントを受け付けていません