cs.AI」カテゴリーアーカイブ

Revisiting Uncertainty Quantification Evaluation in Language Models: Spurious Interactions with Response Length Bias Results

要約 言語モデル(LMS)の不確実性の定量化(UQ)は、安全性と信頼性を改善する … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | コメントする

HybridoNet-Adapt: A Domain-Adapted Framework for Accurate Lithium-Ion Battery RUL Prediction

要約 リチウムイオンバッテリー(LIB)の残りの耐用年数(RUL)の正確な予測は … 続きを読む

カテゴリー: cs.AI, cs.LG | コメントする

Can postgraduate translation students identify machine-generated text?

要約 多言語コンテンツを作成し、機械と従来の翻訳方法の両方をバイパスするためのツ … 続きを読む

カテゴリー: cs.AI, cs.CL | コメントする

Exploring Multimodal Prompt for Visualization Authoring with Large Language Models

要約 大規模な言語モデル(LLM)の最近の進歩は、単純な自然言語の発話を通じて視 … 続きを読む

カテゴリー: cs.AI, cs.HC | コメントする

A Theory of LLM Sampling: Part Descriptive and Part Prescriptive

要約 大規模な言語モデル(LLM)は、自律的な意思決定でますます利用されており、 … 続きを読む

カテゴリー: cs.AI, cs.CL | コメントする

OpenDeception: Benchmarking and Investigating AI Deceptive Behaviors via Open-ended Interaction Simulation

要約 大規模な言語モデル(LLM)の一般的な能力が改善され、エージェントアプリケ … 続きを読む

カテゴリー: cs.AI, cs.CL | コメントする

Unsupervised Machine Learning Hybrid Approach Integrating Linear Programming in Loss Function: A Robust Optimization Technique

要約 このペーパーでは、監視されていない機械学習モデルの損失関数に線形プログラミ … 続きを読む

カテゴリー: cs.AI, cs.LG, math.OC | コメントする

AgentHarm: A Benchmark for Measuring Harmfulness of LLM Agents

要約 脱獄攻撃に対するLLMの堅牢性は、ユーザーが安全対策を回避し、モデル能力を … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | コメントする

Controlled Territory and Conflict Tracking (CONTACT): (Geo-)Mapping Occupied Territory from Open Source Intelligence

要約 オープンソースインテリジェンスは、領土制御の評価を通知できる非構造化された … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, I.2.6 | コメントする

Understanding Epistemic Language with a Language-augmented Bayesian Theory of Mind

要約 これらの信念を直接観察することはできませんが、人々は他人の信念についての主 … 続きを読む

カテゴリー: cs.AI, cs.CL | コメントする