月別アーカイブ: 2024年6月

On Affine Homotopy between Language Encoders

要約 事前トレーニングされた言語エンコーダー (テキストをベクトルとして表す関数 … 続きを読む

カテゴリー: cs.CL, cs.LG | On Affine Homotopy between Language Encoders はコメントを受け付けていません

Translation Deserves Better: Analyzing Translation Artifacts in Cross-lingual Visual Question Answering

要約 さまざまな言語にわたって信頼性の高いビジュアル質問応答 (VQA) システ … 続きを読む

カテゴリー: cs.CL | Translation Deserves Better: Analyzing Translation Artifacts in Cross-lingual Visual Question Answering はコメントを受け付けていません

Extended Mind Transformers

要約 事前トレーニングされた言語モデルは一般的な知能と常識を示しますが、長い入力 … 続きを読む

カテゴリー: cs.CL, cs.LG | Extended Mind Transformers はコメントを受け付けていません

Probing the Category of Verbal Aspect in Transformer Language Models

要約 私たちは、事前学習済み言語モデル (PLM) がロシア語の言語的側面の文法 … 続きを読む

カテゴリー: cs.CL | Probing the Category of Verbal Aspect in Transformer Language Models はコメントを受け付けていません

Linguistic Fingerprint in Transformer Models: How Language Variation Influences Parameter Selection in Irony Detection

要約 この論文では、言語の多様性、感情分析、およびトランスフォーマー モデル ア … 続きを読む

カテゴリー: cs.AI, cs.CL | Linguistic Fingerprint in Transformer Models: How Language Variation Influences Parameter Selection in Irony Detection はコメントを受け付けていません

PACIT: Unlocking the Power of Examples for Better In-Context Instruction Tuning

要約 命令チューニングは、教師付き命令データを使用して微調整することにより、大規 … 続きを読む

カテゴリー: cs.CL | PACIT: Unlocking the Power of Examples for Better In-Context Instruction Tuning はコメントを受け付けていません

Large Language Models Make Sample-Efficient Recommender Systems

要約 大規模言語モデル (LLM) は、自然言語処理 (NLP) の分野で目覚ま … 続きを読む

カテゴリー: cs.CL, cs.IR | Large Language Models Make Sample-Efficient Recommender Systems はコメントを受け付けていません

Improving Transformers with Dynamically Composable Multi-Head Attention

要約 マルチヘッド アテンション (MHA) は、Transformer の重要 … 続きを読む

カテゴリー: cs.CL, cs.LG | Improving Transformers with Dynamically Composable Multi-Head Attention はコメントを受け付けていません

Retaining Key Information under High Compression Ratios: Query-Guided Compressor for LLMs

要約 大規模言語モデルの人気の高まりにより、大規模言語モデル (LLM) のコン … 続きを読む

カテゴリー: cs.CL | Retaining Key Information under High Compression Ratios: Query-Guided Compressor for LLMs はコメントを受け付けていません

On the Intrinsic Self-Correction Capability of LLMs: Uncertainty and Latent Concept

要約 大規模言語モデル (LLM) は、指示されたときに応答を改善できます。これ … 続きを読む

カテゴリー: cs.CL | On the Intrinsic Self-Correction Capability of LLMs: Uncertainty and Latent Concept はコメントを受け付けていません