I.2.7」カテゴリーアーカイブ

ExpressivityArena: Can LLMs Express Information Implicitly?

要約 大規模言語モデル (LLM) は特定の次元で顕著なパフォーマンスを示してい … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | ExpressivityArena: Can LLMs Express Information Implicitly? はコメントを受け付けていません

Quantitative Assessment of Intersectional Empathetic Bias and Understanding

要約 現在の共感の概念の曖昧な定義に基づいた共感の運用化を批判する文献が増えてい … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, cs.HC, I.2.7 | Quantitative Assessment of Intersectional Empathetic Bias and Understanding はコメントを受け付けていません

Logits of API-Protected LLMs Leak Proprietary Information

要約 大規模言語モデル (LLM) プロバイダーは、パブリック アクセスを限定さ … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, cs.CR, cs.LG, I.2.7 | Logits of API-Protected LLMs Leak Proprietary Information はコメントを受け付けていません

OpenFactCheck: A Unified Framework for Factuality Evaluation of LLMs

要約 現実世界のさまざまなアプリケーションで大規模言語モデル (LLM) の使用 … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | OpenFactCheck: A Unified Framework for Factuality Evaluation of LLMs はコメントを受け付けていません

Growing a Tail: Increasing Output Diversity in Large Language Models

要約 多様性が必要な場合、大規模な言語モデルの出力はどの程度多様ですか? 私たち … 続きを読む

カテゴリー: cs.CL, cs.CY, I.2.7 | Growing a Tail: Increasing Output Diversity in Large Language Models はコメントを受け付けていません

LLM-Ref: Enhancing Reference Handling in Technical Writing with Large Language Models

要約 大規模言語モデル (LLM) はデータ合成には優れていますが、ドメイン固有 … 続きを読む

カテゴリー: cs.CL, I.2.7 | LLM-Ref: Enhancing Reference Handling in Technical Writing with Large Language Models はコメントを受け付けていません

Sparsing Law: Towards Large Language Models with Greater Activation Sparsity

要約 アクティベーションの希薄性は、アクティベーション出力内に、除去できる寄与度 … 続きを読む

カテゴリー: cs.CL, cs.LG, I.2.7, stat.ML | Sparsing Law: Towards Large Language Models with Greater Activation Sparsity はコメントを受け付けていません

Multi-modal biometric authentication: Leveraging shared layer architectures for enhanced security

要約 この研究では、顔、音声、署名データを統合してセキュリティ対策を強化する新し … 続きを読む

カテゴリー: cs.CV, cs.LG, F.2.2, I.2.7 | Multi-modal biometric authentication: Leveraging shared layer architectures for enhanced security はコメントを受け付けていません

MoA: Mixture of Sparse Attention for Automatic Large Language Model Compression

要約 スパース注意は、長い文脈における大規模言語モデル(LLM)のメモリとスルー … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, I.2.7 | MoA: Mixture of Sparse Attention for Automatic Large Language Model Compression はコメントを受け付けていません

ProSwitch: Knowledge-Guided Instruction Tuning to Switch Between Professional and Non-Professional Answers

要約 大規模言語モデル(LLM)は、テキストの要約や制御されたテキストの生成など … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, I.2.7 | ProSwitch: Knowledge-Guided Instruction Tuning to Switch Between Professional and Non-Professional Answers はコメントを受け付けていません