I.2.7」カテゴリーアーカイブ

German also Hallucinates! Inconsistency Detection in News Summaries with the Absinth Dataset

要約 大規模言語モデル (LLM) の出現により、幅広い自然言語処理タスクが目覚 … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | German also Hallucinates! Inconsistency Detection in News Summaries with the Absinth Dataset はコメントを受け付けていません

Word Importance Explains How Prompts Affect Language Model Outputs

要約 大規模言語モデル (LLM) の出現により、業界全体の数多くのアプリケーシ … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Word Importance Explains How Prompts Affect Language Model Outputs はコメントを受け付けていません

Word Embeddings Revisited: Do LLMs Offer Something New?

要約 意味のある単語埋め込みを学習することは、ロバストな言語モデルを学習するため … 続きを読む

カテゴリー: cs.CL, I.2.7 | Word Embeddings Revisited: Do LLMs Offer Something New? はコメントを受け付けていません

Killer Apps: Low-Speed, Large-Scale AI Weapons

要約 OpenAI、Meta、Anthropicなどの組織による最先端のGene … 続きを読む

カテゴリー: cs.CR, cs.CY, cs.LG, I.2.7 | Killer Apps: Low-Speed, Large-Scale AI Weapons はコメントを受け付けていません

Large Language Models(LLMs) on Tabular Data: Prediction, Generation, and Understanding — A Survey

要約 大規模言語モデリングにおける最近のブレークスルーは、予測、表データ合成、質 … 続きを読む

カテゴリー: 68T50, cs.CL, I.2.7 | Large Language Models(LLMs) on Tabular Data: Prediction, Generation, and Understanding — A Survey はコメントを受け付けていません

An Unforgeable Publicly Verifiable Watermark for Large Language Models

要約 最近、大規模言語モデル (LLM) 用のテキスト透かしアルゴリズムが、フェ … 続きを読む

カテゴリー: 68T50, cs.CL, I.2.7 | An Unforgeable Publicly Verifiable Watermark for Large Language Models はコメントを受け付けていません

A Semantic Invariant Robust Watermark for Large Language Models

要約 大規模言語モデル (LLM) の透かしアルゴリズムは、LLM によって生成 … 続きを読む

カテゴリー: 68T50, cs.CL, cs.CR, I.2.7 | A Semantic Invariant Robust Watermark for Large Language Models はコメントを受け付けていません

PeLLE: Encoder-based language models for Brazilian Portuguese based on open data

要約 このペーパーでは、カロライナ コーパスから厳選されたオープン データに基づ … 続きを読む

カテゴリー: cs.CL, I.2.7 | PeLLE: Encoder-based language models for Brazilian Portuguese based on open data はコメントを受け付けていません

Tokenization Is More Than Compression

要約 トークン化は、自然言語処理 (NLP) タスクの基礎的なステップであり、生 … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, I.2.7 | Tokenization Is More Than Compression はコメントを受け付けていません

Prescribing Large Language Models for Perioperative Care: What’s The Right Dose for Pre-trained Models?

要約 術後のリスク予測は、効果的な周術期ケア管理と計画に役立ちます。 私たちは、 … 続きを読む

カテゴリー: cs.CL, I.2.7 | Prescribing Large Language Models for Perioperative Care: What’s The Right Dose for Pre-trained Models? はコメントを受け付けていません