投稿者「jarxiv」のアーカイブ

Semantically Encoding Activity Labels for Context-Aware Human Activity Recognition

要約 以前の作業は、主にマルチラベル分類問題としてCa-HARを定式化しています … 続きを読む

カテゴリー: cs.LG | Semantically Encoding Activity Labels for Context-Aware Human Activity Recognition はコメントを受け付けていません

Trading Graph Neural Network

要約 このペーパーでは、新しいアルゴリズム – トレーディングネット … 続きを読む

カテゴリー: cs.LG, econ.GN, q-fin.EC, q-fin.PR, q-fin.TR | Trading Graph Neural Network はコメントを受け付けていません

C3PO: Critical-Layer, Core-Expert, Collaborative Pathway Optimization for Test-Time Expert Re-Mixing

要約 混合混合物(MOE)大手言語モデル(LLMS)は厳しい最適な専門家の経路に … 続きを読む

カテゴリー: cs.LG | C3PO: Critical-Layer, Core-Expert, Collaborative Pathway Optimization for Test-Time Expert Re-Mixing はコメントを受け付けていません

Large corpora and large language models: a replicable method for automating grammatical annotation

要約 多くの言語研究は、テキストコーパスから抽出された特徴の注釈付きデータセット … 続きを読む

カテゴリー: cs.CL | Large corpora and large language models: a replicable method for automating grammatical annotation はコメントを受け付けていません

MedCT: A Clinical Terminology Graph for Generative AI Applications in Healthcare

要約 中国の医療コミュニティ、すなわちMEDCTのために世界初の臨床用語を紹介し … 続きを読む

カテゴリー: cs.AI, cs.CL | MedCT: A Clinical Terminology Graph for Generative AI Applications in Healthcare はコメントを受け付けていません

Wanting to be Understood

要約 この論文では、相互の認識のための本質的な動機を探り、人間は外因性の報酬がな … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Wanting to be Understood はコメントを受け付けていません

Supervised Optimism Correction: Be Confident When LLMs Are Sure

要約 この作業では、トークンレベルのマルコフ決定プロセスの下で、監視された微調整 … 続きを読む

カテゴリー: cs.CL | Supervised Optimism Correction: Be Confident When LLMs Are Sure はコメントを受け付けていません

AI-Slop to AI-Polish? Aligning Language Models through Edit-Based Writing Rewards and Test-time Computation

要約 AIが生成したテキストは、創造的な執筆やジャーナリズムからマーケティングの … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | AI-Slop to AI-Polish? Aligning Language Models through Edit-Based Writing Rewards and Test-time Computation はコメントを受け付けていません

How to Make LLMs Forget: On Reversing In-Context Knowledge Edits

要約 コンテキスト内の知識編集(IKE)により、パラメーターの変更なしおよびゼロ … 続きを読む

カテゴリー: cs.CL | How to Make LLMs Forget: On Reversing In-Context Knowledge Edits はコメントを受け付けていません

Do LLMs Understand Your Translations? Evaluating Paragraph-level MT with Question Answering

要約 機械翻訳評価の着実な進歩にもかかわらず、既存の自動メトリックは、文の境界を … 続きを読む

カテゴリー: cs.CL, cs.LG | Do LLMs Understand Your Translations? Evaluating Paragraph-level MT with Question Answering はコメントを受け付けていません