月別アーカイブ: 2025年3月

A Study into Investigating Temporal Robustness of LLMs

要約 大規模な言語モデル(LLMS)は、驚くほどの事実の世界知識をカプセル化しま … 続きを読む

カテゴリー: 68T50, cs.CL, cs.IR, I.2.7 | A Study into Investigating Temporal Robustness of LLMs はコメントを受け付けていません

Controlled Low-Rank Adaptation with Subspace Regularization for Continued Training on Large Language Models

要約 大規模な言語モデル(LLM)は、自然言語処理において顕著な能力を示しますが … 続きを読む

カテゴリー: cs.AI, cs.CL | Controlled Low-Rank Adaptation with Subspace Regularization for Continued Training on Large Language Models はコメントを受け付けていません

Reverse Probing: Evaluating Knowledge Transfer via Finetuned Task Embeddings for Coreference Resolution

要約 この作業では、単純なソースからより複雑なターゲットタスクへの知識移転を評価 … 続きを読む

カテゴリー: cs.CL | Reverse Probing: Evaluating Knowledge Transfer via Finetuned Task Embeddings for Coreference Resolution はコメントを受け付けていません

Towards Generating Automatic Anaphora Annotations

要約 さまざまなNLPタスクでうまく機能する可能性のあるトレーニングモデルには、 … 続きを読む

カテゴリー: cs.CL | Towards Generating Automatic Anaphora Annotations はコメントを受け付けていません

SATA: A Paradigm for LLM Jailbreak via Simple Assistive Task Linkage

要約 大規模な言語モデル(LLM)は、さまざまなタスクで大きな進歩を遂げています … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | SATA: A Paradigm for LLM Jailbreak via Simple Assistive Task Linkage はコメントを受け付けていません

Are formal and functional linguistic mechanisms dissociated in language models?

要約 大規模な言語モデル(LLM)はますます能力がありますが、これらの機能は不均 … 続きを読む

カテゴリー: cs.CL, I.2.7 | Are formal and functional linguistic mechanisms dissociated in language models? はコメントを受け付けていません

Optimizing Attention with Mirror Descent: Generalized Max-Margin Token Selection

要約 注意メカニズムは、自然言語処理やコンピュータービジョンなど、人工知能のいく … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Optimizing Attention with Mirror Descent: Generalized Max-Margin Token Selection はコメントを受け付けていません

Modifying Large Language Model Post-Training for Diverse Creative Writing

要約 創造的なライティングタスクには特異な正解がないため、これらのタスクを実行す … 続きを読む

カテゴリー: cs.CL, cs.LG | Modifying Large Language Model Post-Training for Diverse Creative Writing はコメントを受け付けていません

Dynamic-LLaVA: Efficient Multimodal Large Language Models via Dynamic Vision-language Context Sparsification

要約 マルチモーダル大手言語モデル(MLLM)は、ビジョン理解、推論、および相互 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CV, cs.LG | Dynamic-LLaVA: Efficient Multimodal Large Language Models via Dynamic Vision-language Context Sparsification はコメントを受け付けていません

CoKe: Customizable Fine-Grained Story Evaluation via Chain-of-Keyword Rationalization

要約 言語モデルを使用した人間が作成したストーリーなどの創造的なテキストを評価す … 続きを読む

カテゴリー: cs.CL | CoKe: Customizable Fine-Grained Story Evaluation via Chain-of-Keyword Rationalization はコメントを受け付けていません