68T50」カテゴリーアーカイブ

Using Large Language Models for Zero-Shot Natural Language Generation from Knowledge Graphs

要約 基礎となる知識表現として構造化ナレッジ グラフ (KG) データを使用する … 続きを読む

カテゴリー: 68T50, cs.CL, I.2.4 | Using Large Language Models for Zero-Shot Natural Language Generation from Knowledge Graphs はコメントを受け付けていません

Zero- and Few-Shot Prompting with LLMs: A Comparative Study with Fine-tuned Models for Bangla Sentiment Analysis

要約 デジタル世界の急速な拡大により、感情分析はマーケティング、政治、顧客サービ … 続きを読む

カテゴリー: 68T50, cs.CL, cs.LG, I.2.7 | Zero- and Few-Shot Prompting with LLMs: A Comparative Study with Fine-tuned Models for Bangla Sentiment Analysis はコメントを受け付けていません

Document Automation Architectures: Updated Survey in Light of Large Language Models

要約 このペーパーでは、ドキュメント オートメーション (DA) の現在の最先端 … 続きを読む

カテゴリー: 68T50, cs.CL, cs.LG, I.2.4 | Document Automation Architectures: Updated Survey in Light of Large Language Models はコメントを受け付けていません

Pairing interacting protein sequences using masked language modeling

要約 アミノ酸配列からどのタンパク質が相互作用するかを予測することは重要な課題で … 続きを読む

カテゴリー: 68T07, 68T50, 92-08, 92B20, cs.LG, I.2.7, q-bio.BM | Pairing interacting protein sequences using masked language modeling はコメントを受け付けていません

LLMeBench: A Flexible Framework for Accelerating LLMs Benchmarking

要約 最近の大規模言語モデル (LLM) の開発と成功により、さまざまな言語での … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, F.2.2 | LLMeBench: A Flexible Framework for Accelerating LLMs Benchmarking はコメントを受け付けていません

Knowledge-preserving Pruning for Pre-trained Language Models without Retraining

要約 事前にトレーニングされた言語モデルが与えられた場合、再トレーニングせずにそ … 続きを読む

カテゴリー: 68T50, cs.CL, I.2.7 | Knowledge-preserving Pruning for Pre-trained Language Models without Retraining はコメントを受け付けていません

A Private Watermark for Large Language Models

要約 最近、大規模言語モデル (LLM) 用のテキスト透かしアルゴリズムにより、 … 続きを読む

カテゴリー: 68T50, cs.CL, I.2.7 | A Private Watermark for Large Language Models はコメントを受け付けていません

Fine-tuning Happens in Tiny Subspaces: Exploring Intrinsic Task-specific Subspaces of Pre-trained Language Models

要約 事前トレーニング済み言語モデル (PLM) は過度にパラメーター化されてお … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, cs.LG, I.2.7 | Fine-tuning Happens in Tiny Subspaces: Exploring Intrinsic Task-specific Subspaces of Pre-trained Language Models はコメントを受け付けていません

Jina Embeddings: A Novel Set of High-Performance Sentence Embedding Models

要約 Jina Embeddings は、さまざまなテキスト入力を数値表現に変換 … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, cs.IR, cs.LG, H.3.3 | Jina Embeddings: A Novel Set of High-Performance Sentence Embedding Models はコメントを受け付けていません

VacancySBERT: the approach for representation of titles and skills for semantic similarity search in the recruitment domain

要約 この論文は、HR ドメインに適用される深層学習セマンティック検索アルゴリズ … 続きを読む

カテゴリー: 68T50, cs.CL | VacancySBERT: the approach for representation of titles and skills for semantic similarity search in the recruitment domain はコメントを受け付けていません