cs.CY」カテゴリーアーカイブ

Culturally-Attuned Moral Machines: Implicit Learning of Human Value Systems by AI through Inverse Reinforcement Learning

要約 人間の文化が異なれば道徳の定義や社会規範も異なるため、人工知能 (AI) … 続きを読む

カテゴリー: cs.AI, cs.CY, cs.HC, cs.LG | Culturally-Attuned Moral Machines: Implicit Learning of Human Value Systems by AI through Inverse Reinforcement Learning はコメントを受け付けていません

Evaluating General-Purpose AI with Psychometrics

要約 大規模な言語モデルなどの汎用 AI システムを包括的かつ正確に評価すること … 続きを読む

カテゴリー: cs.AI, cs.CY | Evaluating General-Purpose AI with Psychometrics はコメントを受け付けていません

Large Language Model (LLM) Bias Index — LLMBI

要約 Large Language Model Bias Index (LLMB … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY, cs.LG, I.2.7 | Large Language Model (LLM) Bias Index — LLMBI はコメントを受け付けていません

An integrated framework for developing and evaluating an automated lecture style assessment system

要約 このホワイトペーパーで紹介する作業の目的は、自動化された講義スタイル評価を … 続きを読む

カテゴリー: cs.AI, cs.CY | An integrated framework for developing and evaluating an automated lecture style assessment system はコメントを受け付けていません

SocialStigmaQA: A Benchmark to Uncover Stigma Amplification in Generative Language Models

要約 望ましくない社会的偏見を監査するための現在のデータセットは、人種や性別など … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY, cs.LG | SocialStigmaQA: A Benchmark to Uncover Stigma Amplification in Generative Language Models はコメントを受け付けていません

How Far Are We from Believable AI Agents? A Framework for Evaluating the Believability of Human Behavior Simulation

要約 AI エージェントの人間の行動シミュレーションでは、エージェントが信頼性の … 続きを読む

カテゴリー: cs.CL, cs.CY | How Far Are We from Believable AI Agents? A Framework for Evaluating the Believability of Human Behavior Simulation はコメントを受け付けていません

Practical Bias Mitigation through Proxy Sensitive Attribute Label Generation

要約 トレーニングされた機械学習システムのバイアスに対処するには、多くの場合、機 … 続きを読む

カテゴリー: cs.CY, cs.LG | Practical Bias Mitigation through Proxy Sensitive Attribute Label Generation はコメントを受け付けていません

Can ChatGPT Read Who You Are?

要約 人工知能 (AI) と心理学の相互作用、特に性格評価における相互作用は、重 … 続きを読む

カテゴリー: cs.CL, cs.CY, cs.HC | Can ChatGPT Read Who You Are? はコメントを受け付けていません

Fact-checking information generated by a large language model can decrease news discernment

要約 ファクトチェックは誤った情報に対する効果的な戦略となり得ますが、オンライン … 続きを読む

カテゴリー: cs.AI, cs.CY, cs.HC | Fact-checking information generated by a large language model can decrease news discernment はコメントを受け付けていません

Large Language Model (LLM) Bias Index — LLMBI

要約 Large Language Model Bias Index (LLMB … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY, cs.LG, I.2.7 | Large Language Model (LLM) Bias Index — LLMBI はコメントを受け付けていません