-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
月別アーカイブ: 2024年2月
ULMA: Unified Language Model Alignment with Human Demonstration and Point-wise Preference
要約 言語モデルを人間の期待に合わせて調整すること(たとえば、役に立つか無害であ … 続きを読む
From RAGs to riches: Using large language models to write documents for clinical trials
要約 臨床試験では、プロトコル、同意書、臨床研究報告書など、多数の文書を作成する … 続きを読む
カテゴリー: cs.CL
From RAGs to riches: Using large language models to write documents for clinical trials はコメントを受け付けていません
Predicting Sustainable Development Goals Using Course Descriptions — from LLMs to Conventional Foundation Models
要約 大学のコースにおける国連の持続可能な開発目標(SDG)の予測に関する研究を … 続きを読む
カテゴリー: cs.CL
Predicting Sustainable Development Goals Using Course Descriptions — from LLMs to Conventional Foundation Models はコメントを受け付けていません
RoCoIns: Enhancing Robustness of Large Language Models through Code-Style Instructions
要約 大規模言語モデル (LLM) は、人間の指示に従う際に優れた機能を示してい … 続きを読む
カテゴリー: cs.CL
RoCoIns: Enhancing Robustness of Large Language Models through Code-Style Instructions はコメントを受け付けていません
‘We Demand Justice!’: Towards Social Context Grounding of Political Texts
要約 ソーシャルメディアでの議論は「政治的スペクトルの反対側が使用する一見似たよ … 続きを読む
カテゴリー: cs.CL
‘We Demand Justice!’: Towards Social Context Grounding of Political Texts はコメントを受け付けていません
Language-Specific Neurons: The Key to Multilingual Capabilities in Large Language Models
要約 大規模言語モデル (LLM) は、特別に厳選された多言語並列コーパスで事前 … 続きを読む
カテゴリー: cs.CL
Language-Specific Neurons: The Key to Multilingual Capabilities in Large Language Models はコメントを受け付けていません
ShieldLM: Empowering LLMs as Aligned, Customizable and Explainable Safety Detectors
要約 大規模言語モデル (LLM) の安全性は近年ますます注目を集めていますが、 … 続きを読む
カテゴリー: cs.CL
ShieldLM: Empowering LLMs as Aligned, Customizable and Explainable Safety Detectors はコメントを受け付けていません
RetrievalQA: Assessing Adaptive Retrieval-Augmented Generation for Short-form Open-Domain Question Answering
要約 適応型検索拡張生成 (ARAG) は、無差別に検索するのではなく、クエリの … 続きを読む
カテゴリー: cs.CL
RetrievalQA: Assessing Adaptive Retrieval-Augmented Generation for Short-form Open-Domain Question Answering はコメントを受け付けていません
D-XCB: Data-independent Debiasing for Fair and Accurate Transformer-based Cyberbullying Detection
要約 悪口は、ネットいじめ事件に関するデータセットを収集するための一般的な手段で … 続きを読む
カテゴリー: cs.CL
D-XCB: Data-independent Debiasing for Fair and Accurate Transformer-based Cyberbullying Detection はコメントを受け付けていません
Unveiling Vulnerability of Self-Attention
要約 事前トレーニングされた言語モデル (PLM) は、単語の小さな変更に対して … 続きを読む
カテゴリー: cs.CL
Unveiling Vulnerability of Self-Attention はコメントを受け付けていません