cs.LG」カテゴリーアーカイブ

Forging the Forger: An Attempt to Improve Authorship Verification via Data Augmentation

要約 著者証明 (AV) は、候補テキストが特定の 1 人の著者によって書かれた … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Forging the Forger: An Attempt to Improve Authorship Verification via Data Augmentation はコメントを受け付けていません

CodeCloak: A Method for Evaluating and Mitigating Code Leakage by LLM Code Assistants

要約 LLM ベースのコード アシスタントは、開発者の間でますます人気が高まって … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG, cs.PL | CodeCloak: A Method for Evaluating and Mitigating Code Leakage by LLM Code Assistants はコメントを受け付けていません

No ‘Zero-Shot’ Without Exponential Data: Pretraining Concept Frequency Determines Multimodal Model Performance

要約 Web クロールされた事前トレーニング データセットは、分類/検索用の C … 続きを読む

カテゴリー: cs.CL, cs.CV, cs.LG | No ‘Zero-Shot’ Without Exponential Data: Pretraining Concept Frequency Determines Multimodal Model Performance はコメントを受け付けていません

Unlearning as multi-task optimization: A normalized gradient difference approach with an adaptive learning rate

要約 機械の非学習は、大規模言語モデル (LLM) によって取得された不要な知識 … 続きを読む

カテゴリー: cs.CL, cs.LG | Unlearning as multi-task optimization: A normalized gradient difference approach with an adaptive learning rate はコメントを受け付けていません

Joint Extraction and Classification of Danish Competences for Job Matching

要約 スキル、職業、知識などの能力のマッチングは、候補者が仕事に適しているかどう … 続きを読む

カテゴリー: cs.CL, cs.LG | Joint Extraction and Classification of Danish Competences for Job Matching はコメントを受け付けていません

Proximal Causal Inference With Text Data

要約 最近のテキストベースの因果関係手法は、非構造化テキスト データから部分的ま … 続きを読む

カテゴリー: cs.CL, cs.LG, stat.ME | Proximal Causal Inference With Text Data はコメントを受け付けていません

Very Attentive Tacotron: Robust and Unbounded Length Generalization in Autoregressive Transformer-Based Text-to-Speech

要約 自己回帰 (AR) Transformer ベースのシーケンス モデルは、 … 続きを読む

カテゴリー: cs.CL, cs.LG, cs.SD, eess.AS | Very Attentive Tacotron: Robust and Unbounded Length Generalization in Autoregressive Transformer-Based Text-to-Speech はコメントを受け付けていません

Towards a theory of how the structure of language is acquired by deep neural networks

要約 ネクストトークン予測によって言語の構造を学習するにはどれくらいのデータが必 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.CL, cs.LG | Towards a theory of how the structure of language is acquired by deep neural networks はコメントを受け付けていません

Balancing Cost and Effectiveness of Synthetic Data Generation Strategies for LLMs

要約 大規模言語モデル (LLM) がより多くのユースケースに適用されるようにな … 続きを読む

カテゴリー: cs.CL, cs.LG | Balancing Cost and Effectiveness of Synthetic Data Generation Strategies for LLMs はコメントを受け付けていません

DISCERN: Decoding Systematic Errors in Natural Language for Text Classifiers

要約 高い予測精度にもかかわらず、現在の機械学習システムは、アノテーションのアー … 続きを読む

カテゴリー: cs.CL, cs.LG | DISCERN: Decoding Systematic Errors in Natural Language for Text Classifiers はコメントを受け付けていません