-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
「cs.CL」カテゴリーアーカイブ
The Russian-focused embedders’ exploration: ruMTEB benchmark and Russian embedding model design
要約 埋め込みモデルは、自然言語処理(NLP)において、情報検索や意味的なテキス … 続きを読む
COMPL-AI Framework: A Technical Interpretation and LLM Benchmarking Suite for the EU Artificial Intelligence Act
要約 EUの人工知能法(AI法)は、責任あるAI開発に向けた重要な一歩であるが、 … 続きを読む
Disentangling Exploration of Large Language Models by Optimal Exploitation
要約 探索は、自己改善やオープンエンドな問題解決に欠かせないスキルである。しかし … 続きを読む
Scaling Up Membership Inference: When and How Attacks Succeed on Large Language Models
要約 メンバシップ推論攻撃(MIA)は、与えられたデータサンプルがモデルの学習セ … 続きを読む
Large Language Models are Advanced Anonymizers
要約 大規模言語モデル(LLM)に関する最近のプライバシー研究では、LLMがオン … 続きを読む
Trust-Oriented Adaptive Guardrails for Large Language Models
要約 ガードレールは、大規模言語モデル(LLM)が有害または有害な反応を緩和する … 続きを読む
STOP! Benchmarking Large Language Models with Sensitivity Testing on Offensive Progressions
要約 大規模言語モデル(LLM)における明示的・暗黙的バイアスの軽減は、自然言語 … 続きを読む
The ALCHEmist: Automated Labeling 500x CHEaper Than LLM Data Annotators
要約 事前に訓練された大規模なモデルをアノテーターとして使用することで、クラウド … 続きを読む
The TIP of the Iceberg: Revealing a Hidden Class of Task-In-Prompt Adversarial Attacks on LLMs
要約 我々は、LLMに対する脱獄敵対的攻撃の新しいクラス、タスク・イン・プロンプ … 続きを読む