cs.CL」カテゴリーアーカイブ

Assessing how hyperparameters impact Large Language Models’ sarcasm detection performance

要約 皮肉の検出は、人間と機械の両方にとって困難です。 この作業では、モデルの特 … 続きを読む

カテゴリー: cs.CL | Assessing how hyperparameters impact Large Language Models’ sarcasm detection performance はコメントを受け付けていません

Can Performant LLMs Be Ethical? Quantifying the Impact of Web Crawling Opt-Outs

要約 オンラインコンテンツの著作権所有者によるWebクロールオプトアウトの採用の … 続きを読む

カテゴリー: cs.CL, cs.LG | Can Performant LLMs Be Ethical? Quantifying the Impact of Web Crawling Opt-Outs はコメントを受け付けていません

Encoder-Decoder Gemma: Improving the Quality-Efficiency Trade-Off via Adaptation

要約 デコーダーのみの大型言語モデル(LLMS)は印象的な結果を示していますが、 … 続きを読む

カテゴリー: cs.CL, cs.LG | Encoder-Decoder Gemma: Improving the Quality-Efficiency Trade-Off via Adaptation はコメントを受け付けていません

LExT: Towards Evaluating Trustworthiness of Natural Language Explanations

要約 大規模な言語モデル(LLM)がハイステークスドメインにますます統合されるに … 続きを読む

カテゴリー: cs.CL | LExT: Towards Evaluating Trustworthiness of Natural Language Explanations はコメントを受け付けていません

Position: LLM Unlearning Benchmarks are Weak Measures of Progress

要約 未学習の方法には、敏感な情報または有害な情報を削除することにより、大規模な … 続きを読む

カテゴリー: cs.CL | Position: LLM Unlearning Benchmarks are Weak Measures of Progress はコメントを受け付けていません

Predicting Drug-Gene Relations via Analogy Tasks with Word Embeddings

要約 Natural Language Processing(NLP)は、広範囲 … 続きを読む

カテゴリー: cs.CL | Predicting Drug-Gene Relations via Analogy Tasks with Word Embeddings はコメントを受け付けていません

Hogwild! Inference: Parallel LLM Generation via Concurrent Attention

要約 大規模な言語モデル(LLMS)は、高度な推論、長型のコンテンツ生成、および … 続きを読む

カテゴリー: cs.CL, cs.LG | Hogwild! Inference: Parallel LLM Generation via Concurrent Attention はコメントを受け付けていません

Generating Usage-related Questions for Preference Elicitation in Conversational Recommender Systems

要約 従来の推奨システムに対する会話型推奨システムの重要な特徴は、自然言語を使用 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.IR | Generating Usage-related Questions for Preference Elicitation in Conversational Recommender Systems はコメントを受け付けていません

Confidence Regularized Masked Language Modeling using Text Length

要約 入力テキストでランダムにマスクされた単語を予測するタスクであるマスクされた … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Confidence Regularized Masked Language Modeling using Text Length はコメントを受け付けていません

Search-R1: Training LLMs to Reason and Leverage Search Engines with Reinforcement Learning

要約 大規模な言語モデル(LLM)の効果的な推論とテキスト生成には、外部の知識と … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.IR | Search-R1: Training LLMs to Reason and Leverage Search Engines with Reinforcement Learning はコメントを受け付けていません