cs.CL」カテゴリーアーカイブ

Exploring Alignment in Shared Cross-lingual Spaces

要約 多様な言語にわたる言語のニュアンスを捉える優れた能力にもかかわらず、多言語 … 続きを読む

カテゴリー: cs.AI, cs.CL | Exploring Alignment in Shared Cross-lingual Spaces はコメントを受け付けていません

Efficient Pre-training for Localized Instruction Generation of Videos

要約 レシピのデモンストレーションに代表される手順ビデオは、段階的な指示を伝える … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CV, cs.LG | Efficient Pre-training for Localized Instruction Generation of Videos はコメントを受け付けていません

TransliCo: A Contrastive Learning Framework to Address the Script Barrier in Multilingual Pretrained Language Models

要約 世界の 7,000 以上の言語は、少なくとも 293 の文字で書かれていま … 続きを読む

カテゴリー: cs.CL | TransliCo: A Contrastive Learning Framework to Address the Script Barrier in Multilingual Pretrained Language Models はコメントを受け付けていません

Can multiple-choice questions really be useful in detecting the abilities of LLMs?

要約 多肢選択質問 (MCQ) は、そのシンプルさと効率性により、大規模言語モデ … 続きを読む

カテゴリー: cs.CL | Can multiple-choice questions really be useful in detecting the abilities of LLMs? はコメントを受け付けていません

Subtle Biases Need Subtler Measures: Dual Metrics for Evaluating Representative and Affinity Bias in Large Language Models

要約 大規模言語モデル (LLM) の研究では、あまり明らかではないものの、特定 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY, cs.LG | Subtle Biases Need Subtler Measures: Dual Metrics for Evaluating Representative and Affinity Bias in Large Language Models はコメントを受け付けていません

Dialogue Agents 101: A Beginner’s Guide to Critical Ingredients for Designing Effective Conversational Systems

要約 仲間とのコミュニケーションを通じてアイデアを共有することは、人間の対話の主 … 続きを読む

カテゴリー: cs.AI, cs.CL | Dialogue Agents 101: A Beginner’s Guide to Critical Ingredients for Designing Effective Conversational Systems はコメントを受け付けていません

Panacea: Pareto Alignment via Preference Adaptation for LLMs

要約 大規模言語モデルの調整のための現在の方法では、通常、スカラーの人間の好みの … 続きを読む

カテゴリー: cs.CL | Panacea: Pareto Alignment via Preference Adaptation for LLMs はコメントを受け付けていません

Representation noising effectively prevents harmful fine-tuning on LLMs

要約 オープンソースの大規模言語モデル (LLM) をリリースすると、悪意のある … 続きを読む

カテゴリー: cs.CL, cs.LG | Representation noising effectively prevents harmful fine-tuning on LLMs はコメントを受け付けていません

Base of RoPE Bounds Context Length

要約 位置の埋め込みは、現在の大規模言語モデル (LLM) の中核コンポーネント … 続きを読む

カテゴリー: cs.CL | Base of RoPE Bounds Context Length はコメントを受け付けていません

Data Augmentation Techniques for Process Extraction from Scientific Publications

要約 私たちは、科学出版物でプロセス抽出タスクのためのデータ拡張テクニックを紹介 … 続きを読む

カテゴリー: cs.CL, cs.IR | Data Augmentation Techniques for Process Extraction from Scientific Publications はコメントを受け付けていません