月別アーカイブ: 2025年2月

Scaling Multi-Document Event Summarization: Evaluating Compression vs. Full-Text Approaches

要約 大規模なテキストコレクションを自動的に要約することは、ジャーナリズム、学術 … 続きを読む

カテゴリー: cs.CL | Scaling Multi-Document Event Summarization: Evaluating Compression vs. Full-Text Approaches はコメントを受け付けていません

LIAR: Leveraging Inference Time Alignment (Best-of-N) to Jailbreak LLMs in Seconds

要約 従来の脱獄は、主に個別の組み合わせの最適化に依存して、LLMSの脆弱性を首 … 続きを読む

カテゴリー: cs.CL | LIAR: Leveraging Inference Time Alignment (Best-of-N) to Jailbreak LLMs in Seconds はコメントを受け付けていません

Beyond Prompt Content: Enhancing LLM Performance via Content-Format Integrated Prompt Optimization

要約 大規模な言語モデル(LLM)は、さまざまなタスクにわたって重要な機能を示し … 続きを読む

カテゴリー: cs.CL | Beyond Prompt Content: Enhancing LLM Performance via Content-Format Integrated Prompt Optimization はコメントを受け付けていません

Transparent NLP: Using RAG and LLM Alignment for Privacy Q&A

要約 一般的なデータ保護規則(GDPR)の透明性の原則には、データ処理情報が明確 … 続きを読む

カテゴリー: cs.CL | Transparent NLP: Using RAG and LLM Alignment for Privacy Q&A はコメントを受け付けていません

DiaSynth: Synthetic Dialogue Generation Framework for Low Resource Dialogue Applications

要約 ドメイン固有のダイアログデータセットの希少性により、アプリケーション全体の … 続きを読む

カテゴリー: cs.CL, cs.LG | DiaSynth: Synthetic Dialogue Generation Framework for Low Resource Dialogue Applications はコメントを受け付けていません

In-Context Learning (and Unlearning) of Length Biases

要約 大規模な言語モデルは、模範的な入出力のペアリングがデモンストレーションのプ … 続きを読む

カテゴリー: cs.CL | In-Context Learning (and Unlearning) of Length Biases はコメントを受け付けていません

Who Taught You That? Tracing Teachers in Model Distillation

要約 モデルの蒸留 – 大規模な教師モデルからの出力を使用して小さな … 続きを読む

カテゴリー: cs.CL | Who Taught You That? Tracing Teachers in Model Distillation はコメントを受け付けていません

Sigma: Differential Rescaling of Query, Key and Value for Efficient Language Models

要約 システムドメインに特化した効率的な大規模な言語モデルであるSigmaを紹介 … 続きを読む

カテゴリー: cs.CL | Sigma: Differential Rescaling of Query, Key and Value for Efficient Language Models はコメントを受け付けていません

Can 1B LLM Surpass 405B LLM? Rethinking Compute-Optimal Test-Time Scaling

要約 テスト時間スケーリング(TTS)は、推論フェーズ中に追加の計算を使用するこ … 続きを読む

カテゴリー: cs.CL | Can 1B LLM Surpass 405B LLM? Rethinking Compute-Optimal Test-Time Scaling はコメントを受け付けていません

Diverse Preference Optimization

要約 補強学習、好みの最適化、または監視された微調整のいずれかを通じて、言語モデ … 続きを読む

カテゴリー: cs.CL | Diverse Preference Optimization はコメントを受け付けていません