cs.CY」カテゴリーアーカイブ

Using LLMs as prompt modifier to avoid biases in AI image generators

要約 この調査では、ユーザープロンプトを変更することにより、テキストから画像の生 … 続きを読む

カテゴリー: cs.CL, cs.CV, cs.CY | Using LLMs as prompt modifier to avoid biases in AI image generators はコメントを受け付けていません

Cancer-Myth: Evaluating AI Chatbot on Patient Questions with False Presuppositions

要約 がん患者は、医療情報の新しい形式のインターネット検索として大規模な言語モデ … 続きを読む

カテゴリー: cs.CL, cs.CY | Cancer-Myth: Evaluating AI Chatbot on Patient Questions with False Presuppositions はコメントを受け付けていません

Bridging Technology and Humanities: Evaluating the Impact of Large Language Models on Social Sciences Research with DeepSeek-R1

要約 近年、大規模な言語モデル(LLMS)の開発は、自然言語処理の分野で大きなブ … 続きを読む

カテゴリー: cs.AI, cs.CY | Bridging Technology and Humanities: Evaluating the Impact of Large Language Models on Social Sciences Research with DeepSeek-R1 はコメントを受け付けていません

‘A Good Bot Always Knows Its Limitations’: Assessing Autonomous System Decision-making Competencies through Factorized Machine Self-confidence

要約 インテリジェントマシンがタスクを完了するための能力をどのように評価できます … 続きを読む

カテゴリー: cs.AI, cs.CY, cs.HC, cs.LG, cs.RO | ‘A Good Bot Always Knows Its Limitations’: Assessing Autonomous System Decision-making Competencies through Factorized Machine Self-confidence はコメントを受け付けていません

OpenTuringBench: An Open-Model-based Benchmark and Framework for Machine-Generated Text Detection and Attribution

要約 オープンな言語モデル(OLLM)は、生成AIアプリケーションでますます活用 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY, cs.HC, physics.soc-ph | OpenTuringBench: An Open-Model-based Benchmark and Framework for Machine-Generated Text Detection and Attribution はコメントを受け付けていません

AI threats to national security can be countered through an incident regime

要約 AI能力の最近の進歩は、AIシステムが国家安全保障に脅威を与える可能性があ … 続きを読む

カテゴリー: cs.AI, cs.CY | AI threats to national security can be countered through an incident regime はコメントを受け付けていません

Masculine Defaults via Gendered Discourse in Podcasts and Large Language Models

要約 男性的なデフォルトは、重要なタイプの性別バイアスとして広く認識されています … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY, cs.LG, cs.SI | Masculine Defaults via Gendered Discourse in Podcasts and Large Language Models はコメントを受け付けていません

Detecting AI-Generated Text: Factors Influencing Detectability with Current Methods

要約 大規模な言語モデル(LLM)は、人間でさえ、テキストが別の人間によって生成 … 続きを読む

カテゴリー: cs.CL, cs.CY | Detecting AI-Generated Text: Factors Influencing Detectability with Current Methods はコメントを受け付けていません

RealHarm: A Collection of Real-World Language Model Application Failures

要約 消費者向けアプリケーションでの言語モデルの展開は、多くのリスクをもたらしま … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.CY | RealHarm: A Collection of Real-World Language Model Application Failures はコメントを受け付けていません

Towards Fairness for the Right Reasons: Using Saliency Maps to Evaluate Bias Removal in Neural Networks

要約 機械学習システムの広範な採用は、公平性とバイアスに関する重要な懸念を提起し … 続きを読む

カテゴリー: cs.AI, cs.CY, cs.LG | Towards Fairness for the Right Reasons: Using Saliency Maps to Evaluate Bias Removal in Neural Networks はコメントを受け付けていません