I.2.7」カテゴリーアーカイブ

Growing a Tail: Increasing Output Diversity in Large Language Models

要約 多様性が必要な場合、大規模な言語モデルの出力はどの程度多様ですか? 私たち … 続きを読む

カテゴリー: cs.CL, cs.CY, I.2.7 | Growing a Tail: Increasing Output Diversity in Large Language Models はコメントを受け付けていません

LLM-Ref: Enhancing Reference Handling in Technical Writing with Large Language Models

要約 大規模言語モデル (LLM) はデータ合成には優れていますが、ドメイン固有 … 続きを読む

カテゴリー: cs.CL, I.2.7 | LLM-Ref: Enhancing Reference Handling in Technical Writing with Large Language Models はコメントを受け付けていません

Sparsing Law: Towards Large Language Models with Greater Activation Sparsity

要約 アクティベーションの希薄性は、アクティベーション出力内に、除去できる寄与度 … 続きを読む

カテゴリー: cs.CL, cs.LG, I.2.7, stat.ML | Sparsing Law: Towards Large Language Models with Greater Activation Sparsity はコメントを受け付けていません

Multi-modal biometric authentication: Leveraging shared layer architectures for enhanced security

要約 この研究では、顔、音声、署名データを統合してセキュリティ対策を強化する新し … 続きを読む

カテゴリー: cs.CV, cs.LG, F.2.2, I.2.7 | Multi-modal biometric authentication: Leveraging shared layer architectures for enhanced security はコメントを受け付けていません

MoA: Mixture of Sparse Attention for Automatic Large Language Model Compression

要約 スパース注意は、長い文脈における大規模言語モデル(LLM)のメモリとスルー … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, I.2.7 | MoA: Mixture of Sparse Attention for Automatic Large Language Model Compression はコメントを受け付けていません

ProSwitch: Knowledge-Guided Instruction Tuning to Switch Between Professional and Non-Professional Answers

要約 大規模言語モデル(LLM)は、テキストの要約や制御されたテキストの生成など … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, I.2.7 | ProSwitch: Knowledge-Guided Instruction Tuning to Switch Between Professional and Non-Professional Answers はコメントを受け付けていません

$FastDoc$: Domain-Specific Fast Continual Pre-training Technique using Document-Level Metadata and Taxonomy

要約 本論文では、$FastDoc$(Fast Continual Pre-tr … 続きを読む

カテゴリー: 68T50, cs.CL, cs.LG, I.2.7 | $FastDoc$: Domain-Specific Fast Continual Pre-training Technique using Document-Level Metadata and Taxonomy はコメントを受け付けていません

CoTran: An LLM-based Code Translator using Reinforcement Learning with Feedback from Compiler and Symbolic Execution

要約 この論文では、LLM ベースのコード変換手法と、プログラム全体を 1 つの … 続きを読む

カテゴリー: cs.AI, cs.PL, cs.SE, I.2.7 | CoTran: An LLM-based Code Translator using Reinforcement Learning with Feedback from Compiler and Symbolic Execution はコメントを受け付けていません

Distinguishing Ignorance from Error in LLM Hallucinations

要約 大規模言語モデル (LLM) は、根拠のない、事実に誤りがある、または前世 … 続きを読む

カテゴリー: cs.CL, I.2.7 | Distinguishing Ignorance from Error in LLM Hallucinations はコメントを受け付けていません

LLMs Know More Than They Show: On the Intrinsic Representation of LLM Hallucinations

要約 大規模言語モデル (LLM) は、事実の不正確さ、偏見、推論の失敗などのエ … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, I.2.7 | LLMs Know More Than They Show: On the Intrinsic Representation of LLM Hallucinations はコメントを受け付けていません