-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
月別アーカイブ: 2024年6月
Measuring Psychological Depth in Language Models
要約 大規模言語モデル (LLM) によって生成されたクリエイティブ ストーリー … 続きを読む
カテゴリー: cs.CL
Measuring Psychological Depth in Language Models はコメントを受け付けていません
Using LLMs to Aid Annotation and Collection of Clinically-Enriched Data in Bipolar Disorder and Schizophrenia
要約 メンタルヘルスにおける NLP は主にソーシャルメディアに焦点を当ててきま … 続きを読む
カテゴリー: cs.CL
Using LLMs to Aid Annotation and Collection of Clinically-Enriched Data in Bipolar Disorder and Schizophrenia はコメントを受け付けていません
LoRA-drop: Efficient LoRA Parameter Pruning based on Output Evaluation
要約 低ランク適応 (LoRA) は、現在最も一般的に使用されているパラメーター … 続きを読む
On Efficiently Representing Regular Languages as RNNs
要約 Hewittらによる最近の研究。 (2020) は、言語モデル (LM) … 続きを読む
Jailbreak Paradox: The Achilles’ Heel of LLMs
要約 基盤モデルの脱獄に関する 2 つのパラドックスを紹介します。1 つ目は、完 … 続きを読む
カテゴリー: cs.CL
Jailbreak Paradox: The Achilles’ Heel of LLMs はコメントを受け付けていません
AgentReview: Exploring Peer Review Dynamics with LLM Agents
要約 査読は科学出版物の完全性と進歩の基礎です。 従来の査読分析方法は、多くの場 … 続きを読む
カテゴリー: cs.CL
AgentReview: Exploring Peer Review Dynamics with LLM Agents はコメントを受け付けていません
MBBQ: A Dataset for Cross-Lingual Comparison of Stereotypes in Generative LLMs
要約 生成大規模言語モデル (LLM) は、有害なバイアスと固定観念を示すことが … 続きを読む
カテゴリー: cs.CL
MBBQ: A Dataset for Cross-Lingual Comparison of Stereotypes in Generative LLMs はコメントを受け付けていません
Lower Bounds on the Expressivity of Recurrent Neural Language Models
要約 大規模なニューラル言語モデル (LM) の最近の成功と普及には、その計算能 … 続きを読む
カテゴリー: cs.CL
Lower Bounds on the Expressivity of Recurrent Neural Language Models はコメントを受け付けていません
Self-Distillation for Model Stacking Unlocks Cross-Lingual NLU in 200+ Languages
要約 LLM は、テキスト生成だけでなく、自然言語理解 (NLU) タスクでも頼 … 続きを読む
カテゴリー: cs.CL
Self-Distillation for Model Stacking Unlocks Cross-Lingual NLU in 200+ Languages はコメントを受け付けていません
Rationale-based Ensemble of Multiple QA Strategies for Zero-shot Knowledge-based VQA
要約 知識ベースの視覚的質問回答 (K-VQA) では、画像に描かれている内容を … 続きを読む
カテゴリー: cs.CL
Rationale-based Ensemble of Multiple QA Strategies for Zero-shot Knowledge-based VQA はコメントを受け付けていません