-
最近の投稿
- KISS-Matcher: Fast and Robust Point Cloud Registration Revisited
- Unpacking Failure Modes of Generative Policies: Runtime Monitoring of Consistency and Progress
- Mode-GS: Monocular Depth Guided Anchored 3D Gaussian Splatting for Robust Ground-View Scene Rendering
- A Universal Formulation for Path-Parametric Planning and Control
- Next Best Sense: Guiding Vision and Touch with FisherRF for 3D Gaussian Splatting
-
最近のコメント
表示できるコメントはありません。 cs.AI (27775) cs.CL (20990) cs.CR (2176) cs.CV (34489) cs.LG (32518) cs.RO (15916) cs.SY (2472) eess.IV (4231) eess.SY (2466) stat.ML (4356)
月別アーカイブ: 2024年2月
ULMA: Unified Language Model Alignment with Human Demonstration and Point-wise Preference
要約 言語モデルを人間の期待に合わせて調整すること(たとえば、役に立つか無害であ … 続きを読む
From RAGs to riches: Using large language models to write documents for clinical trials
要約 臨床試験では、プロトコル、同意書、臨床研究報告書など、多数の文書を作成する … 続きを読む
カテゴリー: cs.CL
From RAGs to riches: Using large language models to write documents for clinical trials はコメントを受け付けていません
Predicting Sustainable Development Goals Using Course Descriptions — from LLMs to Conventional Foundation Models
要約 大学のコースにおける国連の持続可能な開発目標(SDG)の予測に関する研究を … 続きを読む
カテゴリー: cs.CL
Predicting Sustainable Development Goals Using Course Descriptions — from LLMs to Conventional Foundation Models はコメントを受け付けていません
RoCoIns: Enhancing Robustness of Large Language Models through Code-Style Instructions
要約 大規模言語モデル (LLM) は、人間の指示に従う際に優れた機能を示してい … 続きを読む
カテゴリー: cs.CL
RoCoIns: Enhancing Robustness of Large Language Models through Code-Style Instructions はコメントを受け付けていません
‘We Demand Justice!’: Towards Social Context Grounding of Political Texts
要約 ソーシャルメディアでの議論は「政治的スペクトルの反対側が使用する一見似たよ … 続きを読む
カテゴリー: cs.CL
‘We Demand Justice!’: Towards Social Context Grounding of Political Texts はコメントを受け付けていません
Language-Specific Neurons: The Key to Multilingual Capabilities in Large Language Models
要約 大規模言語モデル (LLM) は、特別に厳選された多言語並列コーパスで事前 … 続きを読む
カテゴリー: cs.CL
Language-Specific Neurons: The Key to Multilingual Capabilities in Large Language Models はコメントを受け付けていません
ShieldLM: Empowering LLMs as Aligned, Customizable and Explainable Safety Detectors
要約 大規模言語モデル (LLM) の安全性は近年ますます注目を集めていますが、 … 続きを読む
カテゴリー: cs.CL
ShieldLM: Empowering LLMs as Aligned, Customizable and Explainable Safety Detectors はコメントを受け付けていません
RetrievalQA: Assessing Adaptive Retrieval-Augmented Generation for Short-form Open-Domain Question Answering
要約 適応型検索拡張生成 (ARAG) は、無差別に検索するのではなく、クエリの … 続きを読む
カテゴリー: cs.CL
RetrievalQA: Assessing Adaptive Retrieval-Augmented Generation for Short-form Open-Domain Question Answering はコメントを受け付けていません
D-XCB: Data-independent Debiasing for Fair and Accurate Transformer-based Cyberbullying Detection
要約 悪口は、ネットいじめ事件に関するデータセットを収集するための一般的な手段で … 続きを読む
カテゴリー: cs.CL
D-XCB: Data-independent Debiasing for Fair and Accurate Transformer-based Cyberbullying Detection はコメントを受け付けていません
Unveiling Vulnerability of Self-Attention
要約 事前トレーニングされた言語モデル (PLM) は、単語の小さな変更に対して … 続きを読む
カテゴリー: cs.CL
Unveiling Vulnerability of Self-Attention はコメントを受け付けていません