投稿者「jarxiv」のアーカイブ

ReLIC: A Recipe for 64k Steps of In-Context Reinforcement Learning for Embodied AI

要約 知的な具現化エージェントは、長い経験の履歴を意思決定に統合することで、新し … 続きを読む

カテゴリー: cs.LG | コメントする

Forecasting Smog Clouds With Deep Learning

要約 この概念実証研究では、2地点間の二酸化窒素(NO2)、オゾン(O3)、(微 … 続きを読む

カテゴリー: cs.LG | コメントする

Immunization against harmful fine-tuning attacks

要約 大規模言語モデル(LLM)は多くの場合、有害なテキスト生成を防ぐことを目的 … 続きを読む

カテゴリー: cs.CL | コメントする

Hate Personified: Investigating the role of LLMs in content moderation

要約 ヘイト検出のような主観的なタスクでは、人によってヘイトの捉え方が異なるため … 続きを読む

カテゴリー: cs.CL, cs.CY | コメントする

How to Train Long-Context Language Models (Effectively)

要約 我々は、ロングコンテクスト情報を効果的に利用するための言語モデル(LM)の … 続きを読む

カテゴリー: cs.CL, cs.LG | コメントする

On Leakage of Code Generation Evaluation Datasets

要約 本論文では、コード生成テストセットによる汚染、特に最新の大規模言語モデルで … 続きを読む

カテゴリー: cs.CL | コメントする

Examining Language Modeling Assumptions Using an Annotated Literary Dialect Corpus

要約 19世紀アメリカ文学の正書法変化トークンのデータセットと、人間による注釈が … 続きを読む

カテゴリー: cs.CL | コメントする

StorySparkQA: Expert-Annotated QA Pairs with Real-World Knowledge for Children’s Story-Based Learning

要約 インタラクティブな絵本の読み聞かせは、一般的な親子活動であり、親は、絵本の … 続きを読む

カテゴリー: cs.CL | コメントする

Jailbreaking LLMs with Arabic Transliteration and Arabizi

要約 本研究では、「脱獄」攻撃に対する大規模言語モデル(LLM)の潜在的な脆弱性 … 続きを読む

カテゴリー: cs.CL, cs.LG | コメントする

HiddenGuard: Fine-Grained Safe Generation with Specialized Representation Router

要約 大規模言語モデル(LLM)がますます強力になるにつれて、その安全性と人間の … 続きを読む

カテゴリー: cs.CL | コメントする