投稿者「jarxiv」のアーカイブ

Finite sample learning of moving targets

要約 私たちは、サンプルから学ぼうとする動くターゲットを検討します。 私たちの結 … 続きを読む

カテゴリー: cs.LG, math.OC | Finite sample learning of moving targets はコメントを受け付けていません

Towards Model-Agnostic Federated Learning over Networks

要約 不均一なデータとモデルのネットワークのためのモデルに依存しないフェデレーシ … 続きを読む

カテゴリー: C.2.4, cs.LG | Towards Model-Agnostic Federated Learning over Networks はコメントを受け付けていません

Quartet: Native FP4 Training Can Be Optimal for Large Language Models

要約 大規模な言語モデル(LLMS)の急速な進歩は、計算需要の前例のない増加と並 … 続きを読む

カテゴリー: cs.LG | Quartet: Native FP4 Training Can Be Optimal for Large Language Models はコメントを受け付けていません

Quantum Optimization via Gradient-Based Hamiltonian Descent

要約 機械学習の急速な進歩により、計算効率と低メモリ要件により、最新の最適化技術 … 続きを読む

カテゴリー: cs.LG, math.OC, quant-ph | Quantum Optimization via Gradient-Based Hamiltonian Descent はコメントを受け付けていません

ModRWKV: Transformer Multimodality in Linear Time

要約 現在、ほとんどのマルチモーダル研究は、二次複数の変圧器アーキテクチャを備え … 続きを読む

カテゴリー: cs.AI, cs.CL | ModRWKV: Transformer Multimodality in Linear Time はコメントを受け付けていません

Teaching Audio-Aware Large Language Models What Does Not Hear: Mitigating Hallucinations through Synthesized Negative Samples

要約 オーディオ認識の大規模な言語モデル(ALLMS)の最近の進歩により、オーデ … 続きを読む

カテゴリー: cs.CL, cs.SD, eess.AS | Teaching Audio-Aware Large Language Models What Does Not Hear: Mitigating Hallucinations through Synthesized Negative Samples はコメントを受け付けていません

Exploring Graph Representations of Logical Forms for Language Modeling

要約 このようなモデルは、テキストの対応物よりもデータ効率が高いと主張して、論理 … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Exploring Graph Representations of Logical Forms for Language Modeling はコメントを受け付けていません

MMUnlearner: Reformulating Multimodal Machine Unlearning in the Era of Multimodal Large Language Models

要約 Machine Inlerning(MU)の最近の進捗状況は、深いニューラ … 続きを読む

カテゴリー: cs.AI, cs.CL | MMUnlearner: Reformulating Multimodal Machine Unlearning in the Era of Multimodal Large Language Models はコメントを受け付けていません

Internal Chain-of-Thought: Empirical Evidence for Layer-wise Subtask Scheduling in LLMs

要約 大規模な言語モデル(LLMS)が$ \ textIT {内部チェーンオブオ … 続きを読む

カテゴリー: cs.CL, cs.LG | Internal Chain-of-Thought: Empirical Evidence for Layer-wise Subtask Scheduling in LLMs はコメントを受け付けていません

Breaking Bad Tokens: Detoxification of LLMs Using Sparse Autoencoders

要約 大規模な言語モデル(LLM)は、ユーザー向けアプリケーションで遍在していま … 続きを読む

カテゴリー: cs.CL | Breaking Bad Tokens: Detoxification of LLMs Using Sparse Autoencoders はコメントを受け付けていません