I.2.7」カテゴリーアーカイブ

Stealth edits for provably fixing or attacking large language models

要約 大規模な言語モデルを編集するための新しい方法と技術の理論的基礎を明らかにし … 続きを読む

カテゴリー: 68T07, 68T50, 68W40, cs.AI, cs.LG, I.2.7 | Stealth edits for provably fixing or attacking large language models はコメントを受け付けていません

Unleashing the potential of prompt engineering in Large Language Models: a comprehensive review

要約 このホワイト ペーパーでは、大規模言語モデル (LLM) の機能を解放する … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Unleashing the potential of prompt engineering in Large Language Models: a comprehensive review はコメントを受け付けていません

How Do Large Language Models Acquire Factual Knowledge During Pretraining?

要約 大規模言語モデル (LLM) が実質的な事実知識を保存できるという最近の観 … 続きを読む

カテゴリー: cs.CL, I.2.7 | How Do Large Language Models Acquire Factual Knowledge During Pretraining? はコメントを受け付けていません

REVS: Unlearning Sensitive Information in Language Models via Rank Editing in the Vocabulary Space

要約 大規模言語モデル (LLM) は、トレーニング データに含まれる機密情報や … 続きを読む

カテゴリー: cs.CL, I.2.7 | REVS: Unlearning Sensitive Information in Language Models via Rank Editing in the Vocabulary Space はコメントを受け付けていません

On the Robustness of Document-Level Relation Extraction Models to Entity Name Variations

要約 クロスセンテンスおよび大規模な関係抽出の需要に後押しされて、文書レベルの関 … 続きを読む

カテゴリー: 68T50, cs.CL, I.2.7 | On the Robustness of Document-Level Relation Extraction Models to Entity Name Variations はコメントを受け付けていません

CTC-based Non-autoregressive Textless Speech-to-Speech Translation

要約 直接音声間翻訳 (S2ST) は優れた翻訳品質を実現していますが、音声シー … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.SD, eess.AS, I.2.7 | CTC-based Non-autoregressive Textless Speech-to-Speech Translation はコメントを受け付けていません

RAID: A Shared Benchmark for Robust Evaluation of Machine-Generated Text Detectors

要約 多くの商用およびオープンソース モデルは、機械生成されたテキストを非常に高 … 続きを読む

カテゴリー: cs.CL, I.2.7 | RAID: A Shared Benchmark for Robust Evaluation of Machine-Generated Text Detectors はコメントを受け付けていません

Large Language Models(LLMs) on Tabular Data: Prediction, Generation, and Understanding — A Survey

要約 大規模言語モデリングにおける最近の進歩により、予測、表形式データ合成、質問 … 続きを読む

カテゴリー: 68T50, cs.CL, I.2.7 | Large Language Models(LLMs) on Tabular Data: Prediction, Generation, and Understanding — A Survey はコメントを受け付けていません

Contrastive learning of T cell receptor representations

要約 T 細胞受容体 (TCR) とそのリガンドの相互作用をコンピューターで予測 … 続きを読む

カテゴリー: cs.AI, cs.LG, I.2.7, q-bio.BM | Contrastive learning of T cell receptor representations はコメントを受け付けていません

The Good, the Bad, and the Hulk-like GPT: Analyzing Emotional Decisions of Large Language Models in Cooperation and Bargaining Games

要約 行動研究実験は、社会をモデル化し、人間の相互作用を理解する上で重要な部分を … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | The Good, the Bad, and the Hulk-like GPT: Analyzing Emotional Decisions of Large Language Models in Cooperation and Bargaining Games はコメントを受け付けていません