cs.CY」カテゴリーアーカイブ

User Strategization and Trustworthy Algorithms

要約 人間向けのアルゴリズムの多くは、推奨システムや採用決定ツールを強化するもの … 続きを読む

カテゴリー: cs.CY, cs.GT, cs.LG, stat.ML | User Strategization and Trustworthy Algorithms はコメントを受け付けていません

The Earth is Flat because…: Investigating LLMs’ Belief towards Misinformation via Persuasive Conversation

要約 大規模言語モデル (LLM) は膨大な量の知識をカプセル化していますが、依 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.CY | The Earth is Flat because…: Investigating LLMs’ Belief towards Misinformation via Persuasive Conversation はコメントを受け付けていません

Culturally-Attuned Moral Machines: Implicit Learning of Human Value Systems by AI through Inverse Reinforcement Learning

要約 人間の文化が異なれば道徳の定義や社会規範も異なるため、人工知能 (AI) … 続きを読む

カテゴリー: cs.AI, cs.CY, cs.HC, cs.LG | Culturally-Attuned Moral Machines: Implicit Learning of Human Value Systems by AI through Inverse Reinforcement Learning はコメントを受け付けていません

Evaluating General-Purpose AI with Psychometrics

要約 大規模な言語モデルなどの汎用 AI システムを包括的かつ正確に評価すること … 続きを読む

カテゴリー: cs.AI, cs.CY | Evaluating General-Purpose AI with Psychometrics はコメントを受け付けていません

Large Language Model (LLM) Bias Index — LLMBI

要約 Large Language Model Bias Index (LLMB … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY, cs.LG, I.2.7 | Large Language Model (LLM) Bias Index — LLMBI はコメントを受け付けていません

An integrated framework for developing and evaluating an automated lecture style assessment system

要約 このホワイトペーパーで紹介する作業の目的は、自動化された講義スタイル評価を … 続きを読む

カテゴリー: cs.AI, cs.CY | An integrated framework for developing and evaluating an automated lecture style assessment system はコメントを受け付けていません

SocialStigmaQA: A Benchmark to Uncover Stigma Amplification in Generative Language Models

要約 望ましくない社会的偏見を監査するための現在のデータセットは、人種や性別など … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY, cs.LG | SocialStigmaQA: A Benchmark to Uncover Stigma Amplification in Generative Language Models はコメントを受け付けていません

How Far Are We from Believable AI Agents? A Framework for Evaluating the Believability of Human Behavior Simulation

要約 AI エージェントの人間の行動シミュレーションでは、エージェントが信頼性の … 続きを読む

カテゴリー: cs.CL, cs.CY | How Far Are We from Believable AI Agents? A Framework for Evaluating the Believability of Human Behavior Simulation はコメントを受け付けていません

Practical Bias Mitigation through Proxy Sensitive Attribute Label Generation

要約 トレーニングされた機械学習システムのバイアスに対処するには、多くの場合、機 … 続きを読む

カテゴリー: cs.CY, cs.LG | Practical Bias Mitigation through Proxy Sensitive Attribute Label Generation はコメントを受け付けていません

Can ChatGPT Read Who You Are?

要約 人工知能 (AI) と心理学の相互作用、特に性格評価における相互作用は、重 … 続きを読む

カテゴリー: cs.CL, cs.CY, cs.HC | Can ChatGPT Read Who You Are? はコメントを受け付けていません