cs.CY」カテゴリーアーカイブ

Evidence of a log scaling law for political persuasion with large language models

要約 大規模な言語モデルは人間が書いたものと同じくらい説得力のある政治的メッセー … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY, cs.HC | Evidence of a log scaling law for political persuasion with large language models はコメントを受け付けていません

Fantastic Copyrighted Beasts and How (Not) to Generate Them

要約 最近の研究では、画像およびビデオ生成モデルがトレーニング データから著作権 … 続きを読む

カテゴリー: cs.AI, cs.CV, cs.CY, cs.LG | Fantastic Copyrighted Beasts and How (Not) to Generate Them はコメントを受け付けていません

STAR: SocioTechnical Approach to Red Teaming Language Models

要約 この研究では、大規模な言語モデルのレッド チームの安全性に関する現在のベス … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY, cs.HC | STAR: SocioTechnical Approach to Red Teaming Language Models はコメントを受け付けていません

Investigating Gender Fairness in Machine Learning-driven Personalized Care for Chronic Pain

要約 慢性的な痛みは、世界中の何百万もの人々の生活の質を著しく低下させます。 心 … 続きを読む

カテゴリー: cs.CY, cs.LG | Investigating Gender Fairness in Machine Learning-driven Personalized Care for Chronic Pain はコメントを受け付けていません

Data Ethics in the Era of Healthcare Artificial Intelligence in Africa: An Ubuntu Philosophy Perspective

要約 医療用人工知能 (AI) システムの開発にはデータが不可欠です。 ただし、 … 続きを読む

カテゴリー: cs.AI, cs.CY, I.2.6 | Data Ethics in the Era of Healthcare Artificial Intelligence in Africa: An Ubuntu Philosophy Perspective はコメントを受け付けていません

LLM-Driven Robots Risk Enacting Discrimination, Violence, and Unlawful Actions

要約 ヒューマン・ロボット・インタラクション (HRI) および人工知能 (AI … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY, cs.RO | LLM-Driven Robots Risk Enacting Discrimination, Violence, and Unlawful Actions はコメントを受け付けていません

A tutorial on fairness in machine learning in healthcare

要約 目的: 機械学習 (ML) アルゴリズムがすべての患者グループ内で安全かつ … 続きを読む

カテゴリー: cs.CY, cs.LG, stat.ML | A tutorial on fairness in machine learning in healthcare はコメントを受け付けていません

Improving the Fairness of Deep-Learning, Short-term Crime Prediction with Under-reporting-aware Models

要約 ディープラーニング犯罪予測ツールは、過去の犯罪データと追加の行動データセッ … 続きを読む

カテゴリー: cs.AI, cs.CY, cs.LG | Improving the Fairness of Deep-Learning, Short-term Crime Prediction with Under-reporting-aware Models はコメントを受け付けていません

AI Sandbagging: Language Models can Strategically Underperform on Evaluations

要約 信頼できる機能評価は AI システムの安全性を確保するために不可欠であり、 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY, cs.LG | AI Sandbagging: Language Models can Strategically Underperform on Evaluations はコメントを受け付けていません

AI Sandbagging: Language Models can Strategically Underperform on Evaluations

要約 信頼できる機能評価は AI システムの安全性を確保するために不可欠であり、 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY, cs.LG | AI Sandbagging: Language Models can Strategically Underperform on Evaluations はコメントを受け付けていません