月別アーカイブ: 2024年1月

Large Language Model-Enhanced Algorithm Selection: Towards Comprehensive Algorithm Representation

要約 アルゴリズムの選択は、実行前に特定の問題を解決するのに最適なアルゴリズムを … 続きを読む

カテゴリー: cs.CL, cs.LG | Large Language Model-Enhanced Algorithm Selection: Towards Comprehensive Algorithm Representation はコメントを受け付けていません

Towards Hierarchical Spoken Language Dysfluency Modeling

要約 音声流暢性モデリングは、言語療法と言語学習の両方のボトルネックです。 しか … 続きを読む

カテゴリー: cs.CL, eess.AS | Towards Hierarchical Spoken Language Dysfluency Modeling はコメントを受け付けていません

Framing Analysis of Health-Related Narratives: Conspiracy versus Mainstream Media

要約 オンライン メディアが世論に与える影響を考えると、問題がどのように捉えられ … 続きを読む

カテゴリー: cs.CL, cs.CY | Framing Analysis of Health-Related Narratives: Conspiracy versus Mainstream Media はコメントを受け付けていません

Antonym vs Synonym Distinction using InterlaCed Encoder NETworks (ICE-NET)

要約 反意語と同義語の区別は、語彙意味分析と自動語彙リソース構築における中心的な … 続きを読む

カテゴリー: cs.CL | Antonym vs Synonym Distinction using InterlaCed Encoder NETworks (ICE-NET) はコメントを受け付けていません

Code Prompting Elicits Conditional Reasoning Abilities in Text+Code LLMs

要約 推論は言語を理解するための基本的な要素です。 複数のタイプの推論のうち、条 … 続きを読む

カテゴリー: cs.CL | Code Prompting Elicits Conditional Reasoning Abilities in Text+Code LLMs はコメントを受け付けていません

Exploring Parameter-Efficient Fine-Tuning Techniques for Code Generation with Large Language Models

要約 大規模言語モデル (LLM) は、ゼロショットで、つまり特定の微調整を必要 … 続きを読む

カテゴリー: cs.CL, cs.LG, cs.SE | Exploring Parameter-Efficient Fine-Tuning Techniques for Code Generation with Large Language Models はコメントを受け付けていません

Communication-Efficient Personalized Federated Learning for Speech-to-Text Tasks

要約 プライバシーを保護し、法的規制を満たすために、自動音声認識 (ASR) や … 続きを読む

カテゴリー: cs.CL, cs.SD, eess.AS | Communication-Efficient Personalized Federated Learning for Speech-to-Text Tasks はコメントを受け付けていません

Power in Numbers: Robust reading comprehension by finetuning with four adversarial sentences per example

要約 最近のモデルは、F1 スコアを使用して読解タスクを評価する場合、スタンフォ … 続きを読む

カテゴリー: cs.CL | Power in Numbers: Robust reading comprehension by finetuning with four adversarial sentences per example はコメントを受け付けていません

Marrying Adapters and Mixup to Efficiently Enhance the Adversarial Robustness of Pre-Trained Language Models for Text Classification

要約 既存の研究では、クリーンな例と敵対的な例の両方を使用してニューラル ネット … 続きを読む

カテゴリー: cs.CL | Marrying Adapters and Mixup to Efficiently Enhance the Adversarial Robustness of Pre-Trained Language Models for Text Classification はコメントを受け付けていません

Assertion Enhanced Few-Shot Learning: Instructive Technique for Large Language Models to Generate Educational Explanations

要約 人間の教育者は、生徒からの教育的な説明を予測し、求める本質的な能力を持って … 続きを読む

カテゴリー: cs.CL | Assertion Enhanced Few-Shot Learning: Instructive Technique for Large Language Models to Generate Educational Explanations はコメントを受け付けていません