cs.CL」カテゴリーアーカイブ

A Modular-based Strategy for Mitigating Gradient Conflicts in Simultaneous Speech Translation

要約 同時音声翻訳 (SimulST) では、ストリーミング音声入力を継続的に処 … 続きを読む

カテゴリー: cs.CL, cs.SD, eess.AS | A Modular-based Strategy for Mitigating Gradient Conflicts in Simultaneous Speech Translation はコメントを受け付けていません

Adaptive Prompting for Continual Relation Extraction: A Within-Task Variance Perspective

要約 継続的関係抽出 (CRE) における壊滅的な忘却に対処するために、現在のア … 続きを読む

カテゴリー: cs.CL, cs.LG | Adaptive Prompting for Continual Relation Extraction: A Within-Task Variance Perspective はコメントを受け付けていません

LLM-jp: A Cross-organizational Project for the Research and Development of Fully Open Japanese LLMs

要約 本稿では、日本語大規模言語モデル(LLM)の研究開発のための組織横断プロジ … 続きを読む

カテゴリー: cs.AI, cs.CL | LLM-jp: A Cross-organizational Project for the Research and Development of Fully Open Japanese LLMs はコメントを受け付けていません

LLM-based Translation Inference with Iterative Bilingual Understanding

要約 大規模言語モデル (LLM) の優れた理解および生成能力により、翻訳パフォ … 続きを読む

カテゴリー: cs.AI, cs.CL | LLM-based Translation Inference with Iterative Bilingual Understanding はコメントを受け付けていません

Enhancing Multimodal Emotion Recognition through Multi-Granularity Cross-Modal Alignment

要約 音声とテキストを活用するマルチモーダル感情認識 (MER) は、人間とコン … 続きを読む

カテゴリー: cs.CL, cs.SD, eess.AS | Enhancing Multimodal Emotion Recognition through Multi-Granularity Cross-Modal Alignment はコメントを受け付けていません

Are LLMs Really Not Knowledgable? Mining the Submerged Knowledge in LLMs’ Memory

要約 大規模言語モデル (LLM) は、潜在的な知識ベースとして有望であることが … 続きを読む

カテゴリー: cs.CL | Are LLMs Really Not Knowledgable? Mining the Submerged Knowledge in LLMs’ Memory はコメントを受け付けていません

GFG — Gender-Fair Generation: A CALAMITA Challenge

要約 ジェンダーフェアな表現は、すべてのアイデンティティを含む用語や表現を使用し … 続きを読む

カテゴリー: cs.CL | GFG — Gender-Fair Generation: A CALAMITA Challenge はコメントを受け付けていません

Distilling Fine-grained Sentiment Understanding from Large Language Models

要約 きめ細かい感情分析 (FSA) は、膨大な意見のあるテキストからユーザーの … 続きを読む

カテゴリー: cs.CL | Distilling Fine-grained Sentiment Understanding from Large Language Models はコメントを受け付けていません

DoTA: Weight-Decomposed Tensor Adaptation for Large Language Models

要約 低ランク適応 (LoRA) は、低ランクの行列で更新を近似することにより、 … 続きを読む

カテゴリー: cs.CL, cs.LG | DoTA: Weight-Decomposed Tensor Adaptation for Large Language Models はコメントを受け付けていません

An Empirical Study of Catastrophic Forgetting in Large Language Models During Continual Fine-tuning

要約 壊滅的忘却 (CF) は、下流のタスクで満足のいくパフォーマンスを達成する … 続きを読む

カテゴリー: cs.CL | An Empirical Study of Catastrophic Forgetting in Large Language Models During Continual Fine-tuning はコメントを受け付けていません