cs.CY」カテゴリーアーカイブ

Generative AI Policies under the Microscope: How CS Conferences Are Navigating the New Frontier in Scholarly Writing

要約 学術執筆およびピアレビューにおける生成AI(Gen-AI)の使用が増え続け … 続きを読む

カテゴリー: cs.AI, cs.CY, cs.LG | Generative AI Policies under the Microscope: How CS Conferences Are Navigating the New Frontier in Scholarly Writing はコメントを受け付けていません

How to Protect Yourself from 5G Radiation? Investigating LLM Responses to Implicit Misinformation

要約 大規模な言語モデル(LLM)は多様なシナリオに広く展開されているため、誤っ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY | How to Protect Yourself from 5G Radiation? Investigating LLM Responses to Implicit Misinformation はコメントを受け付けていません

Emotion-Aware Embedding Fusion in LLMs (Flan-T5, LLAMA 2, DeepSeek-R1, and ChatGPT 4) for Intelligent Response Generation

要約 共感的で一貫した反応は、自動配置されたチャットボットが促進された心理療法で … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY | Emotion-Aware Embedding Fusion in LLMs (Flan-T5, LLAMA 2, DeepSeek-R1, and ChatGPT 4) for Intelligent Response Generation はコメントを受け付けていません

Fact-checking with Generative AI: A Systematic Cross-Topic Examination of LLMs Capacity to Detect Veracity of Political Information

要約 この研究の目的は、ファクトチェックに大規模な言語モデル(LLM)を使用して … 続きを読む

カテゴリー: cs.CL, cs.CY | Fact-checking with Generative AI: A Systematic Cross-Topic Examination of LLMs Capacity to Detect Veracity of Political Information はコメントを受け付けていません

When Discourse Stalls: Moving Past Five Semantic Stopsigns about Generative AI in Design Research

要約 このエッセイは、生成的AI(genai)が設計の実践を急速に変換し、談話が … 続きを読む

カテゴリー: cs.AI, cs.CY | When Discourse Stalls: Moving Past Five Semantic Stopsigns about Generative AI in Design Research はコメントを受け付けていません

BiasEdit: Debiasing Stereotyped Language Models via Model Editing

要約 以前の研究では、言語モデルがステレオタイプ化されたバイアスを示すことが確立 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY, cs.LG | BiasEdit: Debiasing Stereotyped Language Models via Model Editing はコメントを受け付けていません

Generating Robot Constitutions & Benchmarks for Semantic Safety

要約 最近まで、ロボットの安全研究は、主に衝突回避とロボットのすぐ近くの危険の減 … 続きを読む

カテゴリー: cs.AI, cs.CV, cs.CY, cs.HC, cs.RO | Generating Robot Constitutions & Benchmarks for Semantic Safety はコメントを受け付けていません

Sometimes the Model doth Preach: Quantifying Religious Bias in Open LLMs through Demographic Analysis in Asian Nations

要約 大規模な言語モデル(LLM)は、意見を生み出し、非代表的で非距離のデータ収 … 続きを読む

カテゴリー: cs.CL, cs.CY | Sometimes the Model doth Preach: Quantifying Religious Bias in Open LLMs through Demographic Analysis in Asian Nations はコメントを受け付けていません

Prompt Selection Matters: Enhancing Text Annotations for Social Sciences with Large Language Models

要約 最近、大規模な言語モデルは、社会科学からのテキスト注釈タスクに適用され、一 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY | Prompt Selection Matters: Enhancing Text Annotations for Social Sciences with Large Language Models はコメントを受け付けていません

AI Biases as Asymmetries: A Review to Guide Practice

要約 AIのバイアスの理解は現在革命を受けています。 最初はエラーまたは欠陥とし … 続きを読む

カテゴリー: cs.AI, cs.CY, cs.LG | AI Biases as Asymmetries: A Review to Guide Practice はコメントを受け付けていません