月別アーカイブ: 2023年11月

SUR-adapter: Enhancing Text-to-Image Pre-trained Diffusion Models with Large Language Models

要約 テキストから画像への生成モデルとして人気が高まっている拡散モデルは、テキス … 続きを読む

カテゴリー: cs.CL, cs.CV | SUR-adapter: Enhancing Text-to-Image Pre-trained Diffusion Models with Large Language Models はコメントを受け付けていません

CLOMO: Counterfactual Logical Modification with Large Language Models

要約 この研究では、大規模言語モデル (LLM) の反事実推論機能の領域を掘り下 … 続きを読む

カテゴリー: cs.AI, cs.CL | CLOMO: Counterfactual Logical Modification with Large Language Models はコメントを受け付けていません

Diffusion Glancing Transformer for Parallel Sequence to Sequence Learning

要約 以前は、非自己回帰モデルは生成効率では優れているものの、複数のターゲットモ … 続きを読む

カテゴリー: cs.CL | Diffusion Glancing Transformer for Parallel Sequence to Sequence Learning はコメントを受け付けていません

Taiwan LLM: Bridging the Linguistic Divide with a Culturally Aligned Language Model

要約 言語モデルの領域では、台湾で話されている繁体字中国語の微妙な言語的および文 … 続きを読む

カテゴリー: cs.AI, cs.CL | Taiwan LLM: Bridging the Linguistic Divide with a Culturally Aligned Language Model はコメントを受け付けていません

Mergen: The First Manchu-Korean Machine Translation Model Trained on Augmented Data

要約 満州語は、中国東北部の歴史的な満州地域にルーツを持つ言語ですが、話者がほと … 続きを読む

カテゴリー: cs.CL | Mergen: The First Manchu-Korean Machine Translation Model Trained on Augmented Data はコメントを受け付けていません

Enhancing Answer Selection in Community Question Answering with Pre-trained and Large Language Models

要約 近年、コミュニティ質問応答 (CQA) がますます普及してきています。 し … 続きを読む

カテゴリー: cs.CL | Enhancing Answer Selection in Community Question Answering with Pre-trained and Large Language Models はコメントを受け付けていません

SentMix-3L: A Bangla-English-Hindi Code-Mixed Dataset for Sentiment Analysis

要約 コードミキシングは、テキストや音声の中で 2 つ以上の言語が混合される、よ … 続きを読む

カテゴリー: cs.CL | SentMix-3L: A Bangla-English-Hindi Code-Mixed Dataset for Sentiment Analysis はコメントを受け付けていません

Reinforcement Replaces Supervision: Query focused Summarization using Deep Reinforcement Learning

要約 クエリ中心の要約 (QfS) は、クエリに基づいてドキュメントから要約を生 … 続きを読む

カテゴリー: cs.AI, cs.CL | Reinforcement Replaces Supervision: Query focused Summarization using Deep Reinforcement Learning はコメントを受け付けていません

Rethinking Attention: Exploring Shallow Feed-Forward Neural Networks as an Alternative to Attention Layers in Transformers

要約 この研究では、標準的な浅いフィードフォワード ネットワークを使用して、シー … 続きを読む

カテゴリー: cs.CL, cs.LG | Rethinking Attention: Exploring Shallow Feed-Forward Neural Networks as an Alternative to Attention Layers in Transformers はコメントを受け付けていません

Exploring Human-Like Translation Strategy with Large Language Models

要約 大規模言語モデル (LLM) は、一般的なシナリオで優れた機能を実証し、人 … 続きを読む

カテゴリー: cs.CL | Exploring Human-Like Translation Strategy with Large Language Models はコメントを受け付けていません