cs.LG」カテゴリーアーカイブ

Another look at inference after prediction

要約 予測ベース (PB) 推論は、目的の結果を取得するのが難しいものの、その予 … 続きを読む

カテゴリー: cs.LG, stat.ML | Another look at inference after prediction はコメントを受け付けていません

Analysing Multiscale Clusterings with Persistent Homology

要約 データ クラスタリングの多くのアプリケーションでは、クラスターへの単一のパ … 続きを読む

カテゴリー: (Primary), 62H30, cs.LG, math.AT | Analysing Multiscale Clusterings with Persistent Homology はコメントを受け付けていません

Scalable Out-of-distribution Robustness in the Presence of Unobserved Confounders

要約 分布外 (OOD) 一般化のタスクを考えます。分布のシフトは、共変量 ($ … 続きを読む

カテゴリー: cs.LG, stat.ML | Scalable Out-of-distribution Robustness in the Presence of Unobserved Confounders はコメントを受け付けていません

An Operator Splitting View of Federated Learning

要約 ここ数年、フェデレーテッド ラーニング ($\texttt{FL}$) コ … 続きを読む

カテゴリー: cs.LG | An Operator Splitting View of Federated Learning はコメントを受け付けていません

Diffeomorphic Latent Neural Operators for Data-Efficient Learning of Solutions to Partial Differential Equations

要約 偏微分方程式 (PDE) 系に対する解演算子の計算による近似は、科学や工学 … 続きを読む

カテゴリー: cs.LG | Diffeomorphic Latent Neural Operators for Data-Efficient Learning of Solutions to Partial Differential Equations はコメントを受け付けていません

Initialization using Update Approximation is a Silver Bullet for Extremely Efficient Low-Rank Fine-Tuning

要約 低ランクのアダプターは、大規模言語モデル (LLM) を効率的に微調整する … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Initialization using Update Approximation is a Silver Bullet for Extremely Efficient Low-Rank Fine-Tuning はコメントを受け付けていません

Towards Evaluating Generalist Agents: An Automated Benchmark in Open World

要約 ジェネラリスト エージェントの評価には、その幅広い能力と、真の汎用性を評価 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CV, cs.LG | Towards Evaluating Generalist Agents: An Automated Benchmark in Open World はコメントを受け付けていません

Accelerating Multimodal Large Language Models via Dynamic Visual-Token Exit and the Empirical Findings

要約 既存の Multimoal Large Language Model (M … 続きを読む

カテゴリー: cs.CL, cs.CV, cs.LG, cs.MM | Accelerating Multimodal Large Language Models via Dynamic Visual-Token Exit and the Empirical Findings はコメントを受け付けていません

Towards Santali Linguistic Inclusion: Building the First Santali-to-English Translation Model using mT5 Transformer and Data Augmentation

要約 インド、バングラデシュ、ブータン、ネパールの約 700 万人がサンタリ語を … 続きを読む

カテゴリー: cs.CL, cs.LG | Towards Santali Linguistic Inclusion: Building the First Santali-to-English Translation Model using mT5 Transformer and Data Augmentation はコメントを受け付けていません

Think Beyond Size: Adaptive Prompting for More Effective Reasoning

要約 事前トレーニングされた大規模言語モデル (LLM) は、少数ショット学習器 … 続きを読む

カテゴリー: cs.CL, cs.LG | Think Beyond Size: Adaptive Prompting for More Effective Reasoning はコメントを受け付けていません