月別アーカイブ: 2025年4月

Improving Privacy Benefits of Redaction

要約 自然なテキストデータを消毒するために使用できる新しい編集方法論を提案します … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Improving Privacy Benefits of Redaction はコメントを受け付けていません

Efficient Response Generation Strategy Selection for Fine-Tuning Large Language Models Through Self-Aligned Perplexity

要約 大規模な言語モデル(LLMS)の微調整は、通常、大量の入出力ペアの生産に依 … 続きを読む

カテゴリー: cs.CL | Efficient Response Generation Strategy Selection for Fine-Tuning Large Language Models Through Self-Aligned Perplexity はコメントを受け付けていません

Unraveling Arithmetic in Large Language Models: The Role of Algebraic Structures

要約 大規模な言語モデル(LLMS)の推論能力は、チェーンオブ考え(COT)プロ … 続きを読む

カテゴリー: cs.CL, cs.LG | Unraveling Arithmetic in Large Language Models: The Role of Algebraic Structures はコメントを受け付けていません

Assessing how hyperparameters impact Large Language Models’ sarcasm detection performance

要約 皮肉の検出は、人間と機械の両方にとって困難です。 この作業では、モデルの特 … 続きを読む

カテゴリー: cs.CL | Assessing how hyperparameters impact Large Language Models’ sarcasm detection performance はコメントを受け付けていません

Can Performant LLMs Be Ethical? Quantifying the Impact of Web Crawling Opt-Outs

要約 オンラインコンテンツの著作権所有者によるWebクロールオプトアウトの採用の … 続きを読む

カテゴリー: cs.CL, cs.LG | Can Performant LLMs Be Ethical? Quantifying the Impact of Web Crawling Opt-Outs はコメントを受け付けていません

Encoder-Decoder Gemma: Improving the Quality-Efficiency Trade-Off via Adaptation

要約 デコーダーのみの大型言語モデル(LLMS)は印象的な結果を示していますが、 … 続きを読む

カテゴリー: cs.CL, cs.LG | Encoder-Decoder Gemma: Improving the Quality-Efficiency Trade-Off via Adaptation はコメントを受け付けていません

LExT: Towards Evaluating Trustworthiness of Natural Language Explanations

要約 大規模な言語モデル(LLM)がハイステークスドメインにますます統合されるに … 続きを読む

カテゴリー: cs.CL | LExT: Towards Evaluating Trustworthiness of Natural Language Explanations はコメントを受け付けていません

Position: LLM Unlearning Benchmarks are Weak Measures of Progress

要約 未学習の方法には、敏感な情報または有害な情報を削除することにより、大規模な … 続きを読む

カテゴリー: cs.CL | Position: LLM Unlearning Benchmarks are Weak Measures of Progress はコメントを受け付けていません

Predicting Drug-Gene Relations via Analogy Tasks with Word Embeddings

要約 Natural Language Processing(NLP)は、広範囲 … 続きを読む

カテゴリー: cs.CL | Predicting Drug-Gene Relations via Analogy Tasks with Word Embeddings はコメントを受け付けていません

Hogwild! Inference: Parallel LLM Generation via Concurrent Attention

要約 大規模な言語モデル(LLMS)は、高度な推論、長型のコンテンツ生成、および … 続きを読む

カテゴリー: cs.CL, cs.LG | Hogwild! Inference: Parallel LLM Generation via Concurrent Attention はコメントを受け付けていません