-
最近の投稿
- LOLA — An Open-Source Massively Multilingual Large Language Model
- NN-Copula-CD: A Copula-Guided Interpretable Neural Network for Change Detection in Heterogeneous Remote Sensing Images
- LaMamba-Diff: Linear-Time High-Fidelity Diffusion Models Based on Local Attention and Mamba
- The Art of Storytelling: Multi-Agent Generative AI for Dynamic Multimodal Narratives
- Skill matching at scale: freelancer-project alignment for efficient multilingual candidate retrieval
-
最近のコメント
表示できるコメントはありません。 cs.AI (27123) cs.CL (20457) cs.CR (2134) cs.CV (33915) cs.LG (31868) cs.RO (15435) cs.SY (2406) eess.IV (4159) eess.SY (2400) stat.ML (4293)
月別アーカイブ: 2024年8月
Self-Alignment: Improving Alignment of Cultural Values in LLMs via In-Context Learning
要約 大規模言語モデル (LLM) がエンコードする文化的価値に関して、LLM … 続きを読む
カテゴリー: cs.CL
Self-Alignment: Improving Alignment of Cultural Values in LLMs via In-Context Learning はコメントを受け付けていません
IKUN for WMT24 General MT Task: LLMs Are here for Multilingual Machine Translation
要約 この文書では、WMT24 の一般的な機械翻訳タスク用に開発された 2 つの … 続きを読む
カテゴリー: cs.CL
IKUN for WMT24 General MT Task: LLMs Are here for Multilingual Machine Translation はコメントを受け付けていません
Learning from Negative Samples in Generative Biomedical Entity Linking
要約 生成モデルは、その優れたパフォーマンスと効率的なメモリ使用により、生物医学 … 続きを読む
カテゴリー: cs.CL
Learning from Negative Samples in Generative Biomedical Entity Linking はコメントを受け付けていません
LLMs vs Established Text Augmentation Techniques for Classification: When do the Benefits Outweight the Costs?
要約 生成大規模言語モデル (LLM) は、テキスト サンプルが LLM で言い … 続きを読む
カテゴリー: cs.CL
LLMs vs Established Text Augmentation Techniques for Classification: When do the Benefits Outweight the Costs? はコメントを受け付けていません
CNIMA: A Universal Evaluation Framework and Automated Approach for Assessing Second Language Dialogues
要約 私たちは、10,000 の対話を含む第二言語としての中国語のラベル付きデー … 続きを読む
カテゴリー: cs.CL
CNIMA: A Universal Evaluation Framework and Automated Approach for Assessing Second Language Dialogues はコメントを受け付けていません
Inverse-Q*: Token Level Reinforcement Learning for Aligning Large Language Models Without Preference Data
要約 ヒューマン フィードバックからの強化学習 (RLHF) は、大規模な言語モ … 続きを読む
カテゴリー: cs.CL
Inverse-Q*: Token Level Reinforcement Learning for Aligning Large Language Models Without Preference Data はコメントを受け付けていません
The Odyssey of Commonsense Causality: From Foundational Benchmarks to Cutting-Edge Reasoning
要約 常識的な因果関係を理解することは、人間にとって特有の知性の証です。 これは … 続きを読む
カテゴリー: cs.CL
The Odyssey of Commonsense Causality: From Foundational Benchmarks to Cutting-Edge Reasoning はコメントを受け付けていません
SALSA: Speedy ASR-LLM Synchronous Aggregation
要約 事前トレーニングされた LLM を利用して、特に低リソース言語の ASR … 続きを読む
Predictability maximization and the origins of word order harmony
要約 私たちは、情報理論の観点から、頭部とその従属部分の順序配置に関する言語問題 … 続きを読む
カテゴリー: cs.CL, physics.soc-ph, q-bio.NC
Predictability maximization and the origins of word order harmony はコメントを受け付けていません
Mitigating Exaggerated Safety in Large Language Models
要約 大規模言語モデル (LLM) の人気が高まるにつれて、モデルの安全性と実用 … 続きを読む
カテゴリー: cs.CL
Mitigating Exaggerated Safety in Large Language Models はコメントを受け付けていません