cs.CL」カテゴリーアーカイブ

UORA: Uniform Orthogonal Reinitialization Adaptation in Parameter-Efficient Fine-Tuning of Large Models

要約 このホワイトペーパーでは、大規模な言語モデル(LLM)の新しいパラメーター … 続きを読む

カテゴリー: cs.CL | UORA: Uniform Orthogonal Reinitialization Adaptation in Parameter-Efficient Fine-Tuning of Large Models はコメントを受け付けていません

Pangu Light: Weight Re-Initialization for Pruning and Accelerating LLMs

要約 大規模な言語モデル(LLMS)は、多数のタスクにわたって最先端の機能を提供 … 続きを読む

カテゴリー: cs.CL | Pangu Light: Weight Re-Initialization for Pruning and Accelerating LLMs はコメントを受け付けていません

Exploring Generative Error Correction for Dysarthric Speech Recognition

要約 エンドツーエンドの自動音声認識(ASR)エンジンの驚くべき進歩にもかかわら … 続きを読む

カテゴリー: cs.CL, eess.AS | Exploring Generative Error Correction for Dysarthric Speech Recognition はコメントを受け付けていません

Visual Abstract Thinking Empowers Multimodal Reasoning

要約 通常、画像はテキストよりも豊かな詳細を伝えますが、多くの場合、マルチモーダ … 続きを読む

カテゴリー: cs.CL | Visual Abstract Thinking Empowers Multimodal Reasoning はコメントを受け付けていません

‘KAN you hear me?’ Exploring Kolmogorov-Arnold Networks for Spoken Language Understanding

要約 Kolmogorov-Arnold Networks(KANS)は最近、従 … 続きを読む

カテゴリー: cs.CL, cs.LG, eess.AS | ‘KAN you hear me?’ Exploring Kolmogorov-Arnold Networks for Spoken Language Understanding はコメントを受け付けていません

Monocle: Hybrid Local-Global In-Context Evaluation for Long-Text Generation with Uncertainty-Based Active Learning

要約 入力の長さが増加するにつれてパフォーマンスの劣化により、高度なLLM-A- … 続きを読む

カテゴリー: cs.CL | Monocle: Hybrid Local-Global In-Context Evaluation for Long-Text Generation with Uncertainty-Based Active Learning はコメントを受け付けていません

Adaptive Classifier-Free Guidance via Dynamic Low-Confidence Masking

要約 分類器のないガイダンス(CFG)は、条件付きおよび無条件の予測を補間するこ … 続きを読む

カテゴリー: cs.CL | Adaptive Classifier-Free Guidance via Dynamic Low-Confidence Masking はコメントを受け付けていません

Reasoning Is Not All You Need: Examining LLMs for Multi-Turn Mental Health Conversations

要約 メンタルヘルスケアへのアクセスが制限され、待ち時間の延長、大規模な言語モデ … 続きを読む

カテゴリー: cs.CL | Reasoning Is Not All You Need: Examining LLMs for Multi-Turn Mental Health Conversations はコメントを受け付けていません

How to Improve the Robustness of Closed-Source Models on NLI

要約 クローズドソースの大規模な言語モデル(LLM)はますます人気が高まっており … 続きを読む

カテゴリー: cs.CL, I.2.7 | How to Improve the Robustness of Closed-Source Models on NLI はコメントを受け付けていません

Dependency Parsing is More Parameter-Efficient with Normalization

要約 依存関係解析は、自然言語構造を推測するタスクであり、しばしばBiaffin … 続きを読む

カテゴリー: cs.CL | Dependency Parsing is More Parameter-Efficient with Normalization はコメントを受け付けていません