cs.CL」カテゴリーアーカイブ

Graph-Aware Isomorphic Attention for Adaptive Dynamics in Transformers

要約 グラフ認識の関係推論を注意メカニズムに統合し、グラフニューラルネットワーク … 続きを読む

カテゴリー: cond-mat.mes-hall, cond-mat.mtrl-sci, cs.AI, cs.CL, cs.LG | Graph-Aware Isomorphic Attention for Adaptive Dynamics in Transformers はコメントを受け付けていません

Promote, Suppress, Iterate: How Language Models Answer One-to-Many Factual Queries

要約 1対多くの事実の質問(例:国の都市を上場する)に答えるには、言語モデル(L … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Promote, Suppress, Iterate: How Language Models Answer One-to-Many Factual Queries はコメントを受け付けていません

Deictic Codes, Demonstratives, and Reference: A Step Toward Solving the Grounding Problem

要約 この論文では、体験的概念の接地の問題に取り組んでいます。 知覚的な実証はそ … 続きを読む

カテゴリー: cs.CL | Deictic Codes, Demonstratives, and Reference: A Step Toward Solving the Grounding Problem はコメントを受け付けていません

CURVALID: Geometrically-guided Adversarial Prompt Detection

要約 大規模な言語モデル(LLM)を侵害し、望ましくない行動を誘発することができ … 続きを読む

カテゴリー: cs.AI, cs.CL | CURVALID: Geometrically-guided Adversarial Prompt Detection はコメントを受け付けていません

An Aspect Extraction Framework using Different Embedding Types, Learning Models, and Dependency Structure

要約 エンティティの特定の特徴に関連するセンチメント表現に細粒の洞察を提供する能 … 続きを読む

カテゴリー: cs.CL, cs.LG | An Aspect Extraction Framework using Different Embedding Types, Learning Models, and Dependency Structure はコメントを受け付けていません

From Sparse Dependence to Sparse Attention: Unveiling How Chain-of-Thought Enhances Transformer Sample Efficiency

要約 チェーンオブシュート(COT)は、大規模な言語モデル(LLM)の推論パフォ … 続きを読む

カテゴリー: cs.CL, cs.LG, stat.ML | From Sparse Dependence to Sparse Attention: Unveiling How Chain-of-Thought Enhances Transformer Sample Efficiency はコメントを受け付けていません

What is a Digital Twin Anyway? Deriving the Definition for the Built Environment from over 15,000 Scientific Publications

要約 デジタル双子の概念は、特に構築された環境内で、さまざまなドメインに大きな注 … 続きを読む

カテゴリー: cs.CL | What is a Digital Twin Anyway? Deriving the Definition for the Built Environment from over 15,000 Scientific Publications はコメントを受け付けていません

Building Safe GenAI Applications: An End-to-End Overview of Red Teaming for Large Language Models

要約 大規模な言語モデル(LLMS)の急速な成長は、大きなプライバシー、セキュリ … 続きを読む

カテゴリー: cs.CL | Building Safe GenAI Applications: An End-to-End Overview of Red Teaming for Large Language Models はコメントを受け付けていません

Scaling Crowdsourced Election Monitoring: Construction and Evaluation of Classification Models for Multilingual and Cross-Domain Classification Settings

要約 従来の選挙監視に代わる補完的な代替としてのクラウドソーシングされた選挙監視 … 続きを読む

カテゴリー: cs.CL | Scaling Crowdsourced Election Monitoring: Construction and Evaluation of Classification Models for Multilingual and Cross-Domain Classification Settings はコメントを受け付けていません

PowerAttention: Exponentially Scaling of Receptive Fields for Effective Sparse Attention

要約 大規模な言語モデル(LLM)は、長いコンテキストを処理する際の注意メカニズ … 続きを読む

カテゴリー: cs.CL, cs.LG | PowerAttention: Exponentially Scaling of Receptive Fields for Effective Sparse Attention はコメントを受け付けていません