cs.LG」カテゴリーアーカイブ

On Vanishing Variance in Transformer Length Generalization

要約 Transformerが短いシーケンスで学習された場合、テスト時に長いシー … 続きを読む

カテゴリー: cs.AI, cs.LG | On Vanishing Variance in Transformer Length Generalization はコメントを受け付けていません

Rethinking RL Scaling for Vision Language Models: A Transparent, From-Scratch Framework and Comprehensive Evaluation Scheme

要約 強化学習(RL)は、近年、大規模言語モデルの推論能力を向上させる強い可能性 … 続きを読む

カテゴリー: cs.CL, cs.CV, cs.LG | Rethinking RL Scaling for Vision Language Models: A Transparent, From-Scratch Framework and Comprehensive Evaluation Scheme はコメントを受け付けていません

Efficient Model Editing with Task-Localized Sparse Fine-tuning

要約 タスク演算は、タスク固有の知識を合成可能なタスクベクトルとして表現すること … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CV, cs.LG | Efficient Model Editing with Task-Localized Sparse Fine-tuning はコメントを受け付けていません

BECAME: BayEsian Continual Learning with Adaptive Model MErging

要約 継続的学習(CL)は、破滅的な忘却を軽減しながら、タスク間で段階的に学習す … 続きを読む

カテゴリー: cs.CV, cs.LG | BECAME: BayEsian Continual Learning with Adaptive Model MErging はコメントを受け付けていません

IMPACT: A Generic Semantic Loss for Multimodal Medical Image Registration

要約 画像登録は、診断、治療計画、画像誘導介入、および経時的モニタリングのための … 続きを読む

カテゴリー: cs.CV, cs.LG | IMPACT: A Generic Semantic Loss for Multimodal Medical Image Registration はコメントを受け付けていません

HQViT: Hybrid Quantum Vision Transformer for Image Classification

要約 Transformerベースのアーキテクチャは、ディープラーニングの展望に … 続きを読む

カテゴリー: cs.CV, cs.LG | HQViT: Hybrid Quantum Vision Transformer for Image Classification はコメントを受け付けていません

TailedCore: Few-Shot Sampling for Unsupervised Long-Tail Noisy Anomaly Detection

要約 我々は、正常なデータセットが欠陥領域で汚染されており、その製品クラス分布が … 続きを読む

カテゴリー: cs.CV, cs.LG | TailedCore: Few-Shot Sampling for Unsupervised Long-Tail Noisy Anomaly Detection はコメントを受け付けていません

Spline-based Transformers

要約 我々は、スプラインベースのトランスフォーマーを紹介する。スプラインベースの … 続きを読む

カテゴリー: cs.CV, cs.LG | Spline-based Transformers はコメントを受け付けていません

HATFormer: Historic Handwritten Arabic Text Recognition with Transformers

要約 アラビア語の手書きテキスト認識(HTR)は、多様な書き方やアラビア文字固有 … 続きを読む

カテゴリー: cs.CL, cs.CV, cs.LG | HATFormer: Historic Handwritten Arabic Text Recognition with Transformers はコメントを受け付けていません

Sparse Autoencoders Learn Monosemantic Features in Vision-Language Models

要約 スパースオートエンコーダ(SAE)は近年、大規模言語モデル(LLM)におけ … 続きを読む

カテゴリー: cs.AI, cs.CV, cs.LG | Sparse Autoencoders Learn Monosemantic Features in Vision-Language Models はコメントを受け付けていません