I.2.7」カテゴリーアーカイブ

Probing the topology of the space of tokens with structured prompts

要約 この記事では、大規模な言語モデル(LLM)に(隠された)トークン入力が同質 … 続きを読む

カテゴリー: 53Z50, 58Z05, cs.AI, I.2.7, math.DG | コメントする

SemEval-2025 Task 1: AdMIRe — Advancing Multimodal Idiomaticity Representation

要約 慣用的な表現は、NLPにユニークな課題を提示します。その意味は、構成要素の … 続きを読む

カテゴリー: cs.CL, cs.CV, I.2.7 | コメントする

Faithfulness of LLM Self-Explanations for Commonsense Tasks: Larger Is Better, and Instruction-Tuning Allows Trade-Offs but Not Pareto Dominance

要約 大規模な言語モデル(LLM)がますます有能になるにつれて、自己生成された説 … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Faithfulness of LLM Self-Explanations for Commonsense Tasks: Larger Is Better, and Instruction-Tuning Allows Trade-Offs but Not Pareto Dominance はコメントを受け付けていません

Are formal and functional linguistic mechanisms dissociated?

要約 大規模な言語モデル(LLM)はますます能力がありますが、これらの機能は不均 … 続きを読む

カテゴリー: cs.CL, I.2.7 | Are formal and functional linguistic mechanisms dissociated? はコメントを受け付けていません

MIX : a Multi-task Learning Approach to Solve Open-Domain Question Answering

要約 このペーパーでは、オープンエンドの質問を解決するためのマルチタスクディープ … 続きを読む

カテゴリー: cs.CL, I.2.7 | MIX : a Multi-task Learning Approach to Solve Open-Domain Question Answering はコメントを受け付けていません

Language Models, Graph Searching, and Supervision Adulteration: When More Supervision is Less and How to Make More More

要約 この作業は、グラフを検索する最小限の例であるパススタータスクに関するもので … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, I.2.7 | Language Models, Graph Searching, and Supervision Adulteration: When More Supervision is Less and How to Make More More はコメントを受け付けていません

Considering Length Diversity in Retrieval-Augmented Summarization

要約 この研究では、以前の作業でカバーされていない長さの制約の下での模範的な概要 … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Considering Length Diversity in Retrieval-Augmented Summarization はコメントを受け付けていません

Presumed Cultural Identity: How Names Shape LLM Responses

要約 名前は人間のアイデンティティに深く結びついています。 それらは、個性、文化 … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Presumed Cultural Identity: How Names Shape LLM Responses はコメントを受け付けていません

Entangled Relations: Leveraging NLI and Meta-analysis to Enhance Biomedical Relation Extraction

要約 最近の研究努力により、関係抽出(RE)を強化するための自然言語推論(NLI … 続きを読む

カテゴリー: cs.CL, I.2.7 | Entangled Relations: Leveraging NLI and Meta-analysis to Enhance Biomedical Relation Extraction はコメントを受け付けていません

MeanCache: User-Centric Semantic Caching for LLM Web Services

要約 ChatGptやLlamaなどの大規模な言語モデル(LLM)は、自然言語処 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.DC, cs.LG, I.2.7 | MeanCache: User-Centric Semantic Caching for LLM Web Services はコメントを受け付けていません