I.2.7」カテゴリーアーカイブ

How Do Large Language Models Acquire Factual Knowledge During Pretraining?

要約 大規模言語モデル (LLM) が実質的な事実知識を保存できるという最近の観 … 続きを読む

カテゴリー: cs.CL, I.2.7 | How Do Large Language Models Acquire Factual Knowledge During Pretraining? はコメントを受け付けていません

REVS: Unlearning Sensitive Information in Language Models via Rank Editing in the Vocabulary Space

要約 大規模言語モデル (LLM) は、トレーニング データに含まれる機密情報や … 続きを読む

カテゴリー: cs.CL, I.2.7 | REVS: Unlearning Sensitive Information in Language Models via Rank Editing in the Vocabulary Space はコメントを受け付けていません

On the Robustness of Document-Level Relation Extraction Models to Entity Name Variations

要約 クロスセンテンスおよび大規模な関係抽出の需要に後押しされて、文書レベルの関 … 続きを読む

カテゴリー: 68T50, cs.CL, I.2.7 | On the Robustness of Document-Level Relation Extraction Models to Entity Name Variations はコメントを受け付けていません

CTC-based Non-autoregressive Textless Speech-to-Speech Translation

要約 直接音声間翻訳 (S2ST) は優れた翻訳品質を実現していますが、音声シー … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.SD, eess.AS, I.2.7 | CTC-based Non-autoregressive Textless Speech-to-Speech Translation はコメントを受け付けていません

RAID: A Shared Benchmark for Robust Evaluation of Machine-Generated Text Detectors

要約 多くの商用およびオープンソース モデルは、機械生成されたテキストを非常に高 … 続きを読む

カテゴリー: cs.CL, I.2.7 | RAID: A Shared Benchmark for Robust Evaluation of Machine-Generated Text Detectors はコメントを受け付けていません

Large Language Models(LLMs) on Tabular Data: Prediction, Generation, and Understanding — A Survey

要約 大規模言語モデリングにおける最近の進歩により、予測、表形式データ合成、質問 … 続きを読む

カテゴリー: 68T50, cs.CL, I.2.7 | Large Language Models(LLMs) on Tabular Data: Prediction, Generation, and Understanding — A Survey はコメントを受け付けていません

Contrastive learning of T cell receptor representations

要約 T 細胞受容体 (TCR) とそのリガンドの相互作用をコンピューターで予測 … 続きを読む

カテゴリー: cs.AI, cs.LG, I.2.7, q-bio.BM | Contrastive learning of T cell receptor representations はコメントを受け付けていません

The Good, the Bad, and the Hulk-like GPT: Analyzing Emotional Decisions of Large Language Models in Cooperation and Bargaining Games

要約 行動研究実験は、社会をモデル化し、人間の相互作用を理解する上で重要な部分を … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | The Good, the Bad, and the Hulk-like GPT: Analyzing Emotional Decisions of Large Language Models in Cooperation and Bargaining Games はコメントを受け付けていません

Heidelberg-Boston @ SIGTYP 2024 Shared Task: Enhancing Low-Resource Language Analysis With Character-Aware Hierarchical Transformers

要約 歴史的言語は、NLP コミュニティに特有の課題を提示しており、その顕著な障 … 続きを読む

カテゴリー: cs.CL, I.2.7 | Heidelberg-Boston @ SIGTYP 2024 Shared Task: Enhancing Low-Resource Language Analysis With Character-Aware Hierarchical Transformers はコメントを受け付けていません

Jina CLIP: Your CLIP Model Is Also Your Text Retriever

要約 Contrastive Language-Image Pretrainin … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, cs.CV, cs.IR, I.2.7 | Jina CLIP: Your CLIP Model Is Also Your Text Retriever はコメントを受け付けていません