月別アーカイブ: 2025年1月

Reinforcement Learning from Human Feedback: Whose Culture, Whose Values, Whose Perspectives?

要約 私たちは、大規模言語モデル (LLM) の文脈で、ヒューマン フィードバッ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY, cs.HC | Reinforcement Learning from Human Feedback: Whose Culture, Whose Values, Whose Perspectives? はコメントを受け付けていません

MSTS: A Multimodal Safety Test Suite for Vision-Language Models

要約 画像およびテキスト入力を処理するビジョン言語モデル (VLM) は、チャッ … 続きを読む

カテゴリー: cs.CL | MSTS: A Multimodal Safety Test Suite for Vision-Language Models はコメントを受け付けていません

OMoE: Diversifying Mixture of Low-Rank Adaptation by Orthogonal Finetuning

要約 低ランク適応 (LoRA) のための専門家混合 (MoE) アーキテクチャ … 続きを読む

カテゴリー: cs.CL, cs.LG | OMoE: Diversifying Mixture of Low-Rank Adaptation by Orthogonal Finetuning はコメントを受け付けていません

Structured Packing in LLM Training Improves Long Context Utilization

要約 ロングコンテキストの大規模言語モデルの最近の進歩は大きな注目を集めています … 続きを読む

カテゴリー: cs.CL | Structured Packing in LLM Training Improves Long Context Utilization はコメントを受け付けていません

ELITR-Bench: A Meeting Assistant Benchmark for Long-Context Language Models

要約 大規模言語モデル (LLM) に関する研究では、最近、長いドキュメント内の … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | ELITR-Bench: A Meeting Assistant Benchmark for Long-Context Language Models はコメントを受け付けていません

BatchLLM: Optimizing Large Batched LLM Inference with Global Prefix Sharing and Throughput-oriented Token Batching

要約 大規模言語モデル (LLM) は、幅広い情報処理および管理タスクにおいてま … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.DC, cs.LG | BatchLLM: Optimizing Large Batched LLM Inference with Global Prefix Sharing and Throughput-oriented Token Batching はコメントを受け付けていません

Author-Specific Linguistic Patterns Unveiled: A Deep Learning Study on Word Class Distributions

要約 深層学習手法は、テキスト データのパターンを明らかにするために、計算言語学 … 続きを読む

カテゴリー: cs.CL | Author-Specific Linguistic Patterns Unveiled: A Deep Learning Study on Word Class Distributions はコメントを受け付けていません

ComplexFuncBench: Exploring Multi-Step and Constrained Function Calling under Long-Context Scenario

要約 リアルタイム API を使用して大規模言語モデル (LLM) を強化すると … 続きを読む

カテゴリー: cs.CL | ComplexFuncBench: Exploring Multi-Step and Constrained Function Calling under Long-Context Scenario はコメントを受け付けていません

How Redundant Is the Transformer Stack in Speech Representation Models?

要約 自己教師あり音声表現モデル、特にトランス アーキテクチャを活用したモデルは … 続きを読む

カテゴリー: cs.CL, cs.LG, cs.SD, eess.AS | How Redundant Is the Transformer Stack in Speech Representation Models? はコメントを受け付けていません

Multi-stage Training of Bilingual Islamic LLM for Neural Passage Retrieval

要約 この研究は、イスラムの神経検索モデルの開発に焦点を当て、イスラム領域内での … 続きを読む

カテゴリー: cs.CL | Multi-stage Training of Bilingual Islamic LLM for Neural Passage Retrieval はコメントを受け付けていません