月別アーカイブ: 2024年8月

SimpleSpeech 2: Towards Simple and Efficient Text-to-Speech with Flow-based Scalar Latent Transformer Diffusion Models

要約 Text-to-speech (TTS) を大規模なデータセットにスケーリ … 続きを読む

カテゴリー: cs.CL, cs.SD, eess.AS | SimpleSpeech 2: Towards Simple and Efficient Text-to-Speech with Flow-based Scalar Latent Transformer Diffusion Models はコメントを受け付けていません

SkyScript-100M: 1,000,000,000 Pairs of Scripts and Shooting Scripts for Short Drama

要約 短編ドラマの脚本作成には、シーンやショット言語などの情報を含む高品質の撮影 … 続きを読む

カテゴリー: cs.CL | SkyScript-100M: 1,000,000,000 Pairs of Scripts and Shooting Scripts for Short Drama はコメントを受け付けていません

AI-native Memory: A Pathway from LLMs Towards AGI

要約 大規模言語モデル (LLM) は、汎用人工知能 (AGI) の火花を使って … 続きを読む

カテゴリー: cs.AI, cs.CL | AI-native Memory: A Pathway from LLMs Towards AGI はコメントを受け付けていません

Beyond Levenshtein: Leveraging Multiple Algorithms for Robust Word Error Rate Computations And Granular Error Classifications

要約 単語誤り率 (WER) は、自動音声認識 (ASR) の精度の一般的な尺度 … 続きを読む

カテゴリー: cs.CL, cs.SD, eess.AS, I.2.7 | Beyond Levenshtein: Leveraging Multiple Algorithms for Robust Word Error Rate Computations And Granular Error Classifications はコメントを受け付けていません

CBF-LLM: Safe Control for LLM Alignment

要約 この論文では、コントロール バリア関数 (CBF) を活用して大規模言語モ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.SY, eess.SY | CBF-LLM: Safe Control for LLM Alignment はコメントを受け付けていません

Large Language Model Sentinel: LLM Agent for Adversarial Purification

要約 過去 2 年間で、大規模言語モデル (LLM) の使用が急速に進歩しました … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Large Language Model Sentinel: LLM Agent for Adversarial Purification はコメントを受け付けていません

PASH at TREC 2021 Deep Learning Track: Generative Enhanced Model for Multi-stage Ranking

要約 この文書では、TREC 2021 Deep Learning Track … 続きを読む

カテゴリー: cs.CL, cs.IR | PASH at TREC 2021 Deep Learning Track: Generative Enhanced Model for Multi-stage Ranking はコメントを受け付けていません

Harnessing the Intrinsic Knowledge of Pretrained Language Models for Challenging Text Classification Settings

要約 テキスト分類は感情分析や有害テキスト フィルタリングなどのアプリケーション … 続きを読む

カテゴリー: cs.AI, cs.CL | Harnessing the Intrinsic Knowledge of Pretrained Language Models for Challenging Text Classification Settings はコメントを受け付けていません

Auxiliary-Loss-Free Load Balancing Strategy for Mixture-of-Experts

要約 Mixture-of-Experts (MoE) モデルの場合、不均衡なエ … 続きを読む

カテゴリー: cs.CL, cs.LG | Auxiliary-Loss-Free Load Balancing Strategy for Mixture-of-Experts はコメントを受け付けていません

StyleRemix: Interpretable Authorship Obfuscation via Distillation and Perturbation of Style Elements

要約 著者の身元を意図的に不明瞭にするためにテキストを書き換える著者名難読化は、 … 続きを読む

カテゴリー: cs.CL | StyleRemix: Interpretable Authorship Obfuscation via Distillation and Perturbation of Style Elements はコメントを受け付けていません