cs.LG」カテゴリーアーカイブ

Efficient Adversarial Training in LLMs with Continuous Attacks

要約 大規模言語モデル(LLM)は、その安全ガードレールを回避する敵対的攻撃に対 … 続きを読む

カテゴリー: cs.CR, cs.LG | Efficient Adversarial Training in LLMs with Continuous Attacks はコメントを受け付けていません

Human-in-the-Loop Causal Discovery under Latent Confounding using Ancestral GFlowNets

要約 構造学習は因果推論の核心である。特に、潜在的な交絡因子を考慮する場合、専門 … 続きを読む

カテゴリー: cs.LG, stat.ML | Human-in-the-Loop Causal Discovery under Latent Confounding using Ancestral GFlowNets はコメントを受け付けていません

Provable optimal transport with transformers: The essence of depth and prompt engineering

要約 変圧器の証明可能な性能保証を確立できるか?このような理論的保証を確立するこ … 続きを読む

カテゴリー: cs.LG, math.OC, stat.ML | Provable optimal transport with transformers: The essence of depth and prompt engineering はコメントを受け付けていません

Nyström Kernel Stein Discrepancy

要約 カーネル法はデータ科学や統計学で最も成功したアプローチの多くを支えており、 … 続きを読む

カテゴリー: (Primary), cs.LG, G.3, math.ST, stat.ML, stat.TH | Nyström Kernel Stein Discrepancy はコメントを受け付けていません

Scalable Training of Trustworthy and Energy-Efficient Predictive Graph Foundation Models for Atomistic Materials Modeling: A Case Study with HydraGNN

要約 HydraGNNは、多頭のグラフ畳み込みニューラルネットワークアーキテクチ … 続きを読む

カテゴリー: 68T07, 68T09, C.2.4, cs.LG, physics.comp-ph | Scalable Training of Trustworthy and Energy-Efficient Predictive Graph Foundation Models for Atomistic Materials Modeling: A Case Study with HydraGNN はコメントを受け付けていません

Highly Accurate Real-space Electron Densities with Neural Networks

要約 量子化学における変分法は、波動関数に直接アクセスできるという点で、他の手法 … 続きを読む

カテゴリー: cs.LG, physics.chem-ph | Highly Accurate Real-space Electron Densities with Neural Networks はコメントを受け付けていません

MoA: Mixture of Sparse Attention for Automatic Large Language Model Compression

要約 スパース注意は、長い文脈における大規模言語モデル(LLM)のメモリとスルー … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, I.2.7 | MoA: Mixture of Sparse Attention for Automatic Large Language Model Compression はコメントを受け付けていません

The Re-Label Method For Data-Centric Machine Learning

要約 ディープラーニングのアプリケーションでは、手作業でラベル付けされたデータに … 続きを読む

カテゴリー: cs.CL, cs.LG | The Re-Label Method For Data-Centric Machine Learning はコメントを受け付けていません

Parameter-Efficient Fine-Tuning in Large Models: A Survey of Methodologies

要約 生予測をスケーリングすることで予測される大規模モデルは、多くの分野で画期的 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Parameter-Efficient Fine-Tuning in Large Models: A Survey of Methodologies はコメントを受け付けていません

In-Context Transfer Learning: Demonstration Synthesis by Transferring Similar Tasks

要約 インコンテキスト学習(In-Context Learning: ICL)は … 続きを読む

カテゴリー: cs.CL, cs.LG | In-Context Transfer Learning: Demonstration Synthesis by Transferring Similar Tasks はコメントを受け付けていません