-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
「cs.CY」カテゴリーアーカイブ
Fact-checking with Generative AI: A Systematic Cross-Topic Examination of LLMs Capacity to Detect Veracity of Political Information
要約 この研究の目的は、ファクトチェックに大規模な言語モデル(LLM)を使用して … 続きを読む
When Discourse Stalls: Moving Past Five Semantic Stopsigns about Generative AI in Design Research
要約 このエッセイは、生成的AI(genai)が設計の実践を急速に変換し、談話が … 続きを読む
BiasEdit: Debiasing Stereotyped Language Models via Model Editing
要約 以前の研究では、言語モデルがステレオタイプ化されたバイアスを示すことが確立 … 続きを読む
Generating Robot Constitutions & Benchmarks for Semantic Safety
要約 最近まで、ロボットの安全研究は、主に衝突回避とロボットのすぐ近くの危険の減 … 続きを読む
Sometimes the Model doth Preach: Quantifying Religious Bias in Open LLMs through Demographic Analysis in Asian Nations
要約 大規模な言語モデル(LLM)は、意見を生み出し、非代表的で非距離のデータ収 … 続きを読む
Prompt Selection Matters: Enhancing Text Annotations for Social Sciences with Large Language Models
要約 最近、大規模な言語モデルは、社会科学からのテキスト注釈タスクに適用され、一 … 続きを読む
AI Biases as Asymmetries: A Review to Guide Practice
要約 AIのバイアスの理解は現在革命を受けています。 最初はエラーまたは欠陥とし … 続きを読む
Artificial Utopia: Simulation and Intelligent Agents for a Democratised Future
要約 政治と経済学における一般的なトップダウンシステムは、気候変動、社会的不平等 … 続きを読む
Evaluating open-source Large Language Models for automated fact-checking
要約 オンラインの誤った情報の増加の増加により、自動化された事実確認ソリューショ … 続きを読む