-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
月別アーカイブ: 2024年3月
Killer Apps: Low-Speed, Large-Scale AI Weapons
要約 OpenAI、Meta、Anthropicなどの組織による最先端のGene … 続きを読む
The Risks of Recourse in Binary Classification
要約 アルゴリズム・リコース(algorithmic recourse)は、機械 … 続きを読む
ImpNet: Imperceptible and blackbox-undetectable backdoors in compiled neural networks
要約 機械学習に対する初期のバックドア攻撃は、攻撃と防御の開発における軍拡競争を … 続きを読む
Physics-Informed Machine Learning for Seismic Response Prediction OF Nonlinear Steel Moment Resisting Frame Structures
要約 従来の数値シミュレーションには多大な計算コストがかかるため、構造メタモデリ … 続きを読む
カテゴリー: cs.LG, physics.app-ph
Physics-Informed Machine Learning for Seismic Response Prediction OF Nonlinear Steel Moment Resisting Frame Structures はコメントを受け付けていません
Can You Learn Semantics Through Next-Word Prediction? The Case of Entailment
要約 LM は学習データの共起パターンからテキストの意味論を推論するのだろうか? … 続きを読む
カテゴリー: cs.CL
Can You Learn Semantics Through Next-Word Prediction? The Case of Entailment はコメントを受け付けていません
Prejudice and Caprice: A Statistical Framework for Measuring Social Discrimination in Large Language Models
要約 大規模言語モデル(LLM)の社会的運用への統合が進むにつれ、経済、法律、教 … 続きを読む
Large Language Models(LLMs) on Tabular Data: Prediction, Generation, and Understanding — A Survey
要約 大規模言語モデリングにおける最近のブレークスルーは、予測、表データ合成、質 … 続きを読む
SAIE Framework: Support Alone Isn’t Enough — Advancing LLM Training with Adversarial Remarks
要約 大規模言語モデル(LLM)は、他のモデルや人間との議論を通じて、自分の予測 … 続きを読む
カテゴリー: cs.CL
SAIE Framework: Support Alone Isn’t Enough — Advancing LLM Training with Adversarial Remarks はコメントを受け付けていません
How (un)ethical are instruction-centric responses of LLMs? Unveiling the vulnerabilities of safety guardrails to harmful queries
要約 本研究では、大規模言語モデル(LLM)の安全性と倫理的使用に関する懸念の高 … 続きを読む
Measuring Moral Inconsistencies in Large Language Models
要約 大規模言語モデル(LLM)は、意味的に等価なプロンプトが意味的に等価な応答 … 続きを読む