cs.LG」カテゴリーアーカイブ

Gradual Binary Search and Dimension Expansion : A general method for activation quantization in LLMs

要約 大規模な言語モデル(LLM)は、人工知能において極めて重要になり、推論、理 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Gradual Binary Search and Dimension Expansion : A general method for activation quantization in LLMs はコメントを受け付けていません

Hakim: Farsi Text Embedding Model

要約 テキストの埋め込みにおける最近の進歩により、多くの言語で自然言語の理解が大 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Hakim: Farsi Text Embedding Model はコメントを受け付けていません

IndicSQuAD: A Comprehensive Multilingual Question Answering Dataset for Indic Languages

要約 質問回答(QA)システムの急速な進歩は、主に高リソース言語に利益をもたらし … 続きを読む

カテゴリー: cs.CL, cs.LG | IndicSQuAD: A Comprehensive Multilingual Question Answering Dataset for Indic Languages はコメントを受け付けていません

Optimizing Retrieval-Augmented Generation: Analysis of Hyperparameter Impact on Performance and Efficiency

要約 大規模な言語モデルは高いタスクのパフォーマンスを実現しますが、多くの場合、 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Optimizing Retrieval-Augmented Generation: Analysis of Hyperparameter Impact on Performance and Efficiency はコメントを受け付けていません

Large Language Models Meet Stance Detection: A Survey of Tasks, Methods, Applications, Challenges and Future Directions

要約 スタンス検出は、ソーシャルメディア、ニュース記事、オンラインレビューなどの … 続きを読む

カテゴリー: cs.CL, cs.LG, cs.SI | Large Language Models Meet Stance Detection: A Survey of Tasks, Methods, Applications, Challenges and Future Directions はコメントを受け付けていません

Scaling Laws for Floating Point Quantization Training

要約 低精度トレーニングは、トレーニングと下流の推論コストの両方を削減するための … 続きを読む

カテゴリー: cs.AR, cs.CL, cs.LG | Scaling Laws for Floating Point Quantization Training はコメントを受け付けていません

Round and Round We Go! What makes Rotary Positional Encodings useful?

要約 位置エンコーディング(PES)は、トランスベースの大型言語モデル(LLMS … 続きを読む

カテゴリー: cs.CL, cs.LG | Round and Round We Go! What makes Rotary Positional Encodings useful? はコメントを受け付けていません

Integrating Single-Cell Foundation Models with Graph Neural Networks for Drug Response Prediction

要約 AI駆動型の薬物反応予測は、個別化されたがん治療を進めるための大きな可能性 … 続きを読む

カテゴリー: cs.CL, cs.LG, q-bio.QM | Integrating Single-Cell Foundation Models with Graph Neural Networks for Drug Response Prediction はコメントを受け付けていません

Scaling Context, Not Parameters: Training a Compact 7B Language Model for Efficient Long-Context Processing

要約 512Kトークンのコンテキストの長さをサポートする言語モデルであるMega … 続きを読む

カテゴリー: cs.CL, cs.LG | Scaling Context, Not Parameters: Training a Compact 7B Language Model for Efficient Long-Context Processing はコメントを受け付けていません

Revealing economic facts: LLMs know more than they say

要約 大規模な言語モデル(LLM)の隠された状態を使用して、経済統計と財務統計を … 続きを読む

カテゴリー: cs.CL, cs.LG, econ.GN, I.2.7, q-fin.EC | Revealing economic facts: LLMs know more than they say はコメントを受け付けていません