stat.ML」カテゴリーアーカイブ

SKADA-Bench: Benchmarking Unsupervised Domain Adaptation Methods with Realistic Validation On Diverse Modalities

要約 監視されていないドメイン適応(DA)は、ラベル付きのソースドメインでトレー … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ME, stat.ML | SKADA-Bench: Benchmarking Unsupervised Domain Adaptation Methods with Realistic Validation On Diverse Modalities はコメントを受け付けていません

Archetypal Analysis for Binary Data

要約 典型的な分析(AA)は、各データポイントが順番にアーキタイプの凸の組み合わ … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ML | Archetypal Analysis for Binary Data はコメントを受け付けていません

Free Energy Risk Metrics for Systemically Safe AI: Gatekeeping Multi-Agent Study

要約 エージェントおよびマルチエージェントシステムのリスクを測定するための基盤と … 続きを読む

カテゴリー: cs.AI, cs.LG, cs.MA, physics.data-an, stat.ML | Free Energy Risk Metrics for Systemically Safe AI: Gatekeeping Multi-Agent Study はコメントを受け付けていません

Every Call is Precious: Global Optimization of Black-Box Functions with Unknown Lipschitz Constants

要約 高価で非凸のブラックボックスリプシッツ連続関数を最適化することは、特に基礎 … 続きを読む

カテゴリー: cs.AI, cs.LG, cs.SY, eess.SY, math.OC, stat.ML | Every Call is Precious: Global Optimization of Black-Box Functions with Unknown Lipschitz Constants はコメントを受け付けていません

Estimating the Probabilities of Rare Outputs in Language Models

要約 低確率推定の問題を検討します。機械学習モデルと正式に指定された入力分布を考 … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ML | Estimating the Probabilities of Rare Outputs in Language Models はコメントを受け付けていません

Keep It Light! Simplifying Image Clustering Via Text-Free Adapters

要約 多くの競争力のあるクラスタリングパイプラインには、マルチモーダル設計があり … 続きを読む

カテゴリー: cs.CV, cs.LG, cs.NE, stat.CO, stat.ML | Keep It Light! Simplifying Image Clustering Via Text-Free Adapters はコメントを受け付けていません

Randomness, exchangeability, and conformal prediction

要約 このホワイトペーパーでは、ランダム性の機能理論の発達、不特定の添加剤定数を … 続きを読む

カテゴリー: (Primary), 03D32, 68T05, cs.LG, math.ST, stat.ML, stat.TH | Randomness, exchangeability, and conformal prediction はコメントを受け付けていません

Is In-Context Universality Enough? MLPs are Also Universal In-Context

要約 トランスの成功は、多くの場合、コンテキスト内学習を実行する能力にリンクされ … 続きを読む

カテゴリー: cs.LG, cs.NA, cs.NE, math.NA, math.PR, stat.ML | Is In-Context Universality Enough? MLPs are Also Universal In-Context はコメントを受け付けていません

A Mixture-Based Framework for Guiding Diffusion Models

要約 拡散モデルの除去により、ベイジアンの逆の問題の分野で大きな進歩が促進されま … 続きを読む

カテゴリー: cs.LG, stat.ML | A Mixture-Based Framework for Guiding Diffusion Models はコメントを受け付けていません

Optimal Task Order for Continual Learning of Multiple Tasks

要約 複数のタスクの継続的な学習は、神経ネットワークにとって大きな課題のままです … 続きを読む

カテゴリー: cs.LG, stat.ML | Optimal Task Order for Continual Learning of Multiple Tasks はコメントを受け付けていません