68T07」カテゴリーアーカイブ

GigaPevt: Multimodal Medical Assistant

要約 インテリジェントで効率的な医療アシスタントを構築することは、依然として A … 続きを読む

カテゴリー: 68T07, cs.AI, cs.CL, cs.HC, I.2.1 | GigaPevt: Multimodal Medical Assistant はコメントを受け付けていません

Prompting Encoder Models for Zero-Shot Classification: A Cross-Domain Study in Italian

要約 言語モデル (LM) を効果的に使用するには、特殊な分野やリソースの少ない … 続きを読む

カテゴリー: 68T07, 68T50, cs.AI, cs.CL, I.2.7 | Prompting Encoder Models for Zero-Shot Classification: A Cross-Domain Study in Italian はコメントを受け付けていません

Sentiment Analysis of Lithuanian Online Reviews Using Large Language Models

要約 感情分析は自然言語処理 (NLP) 内で広く研究されている領域であり、自動 … 続きを読む

カテゴリー: (Primary), 68T05, 68T07, 68T50, cs.CL, cs.IR, cs.LG, I.2.6 | Sentiment Analysis of Lithuanian Online Reviews Using Large Language Models はコメントを受け付けていません

Inference acceleration for large language models using ‘stairs’ assisted greedy generation

要約 数十億のパラメータを持つ大規模言語モデル (LLM) は、その優れた予測機 … 続きを読む

カテゴリー: (Primary), 68T05, 68T07, 68T50, cs.CL, cs.LG, I.2.6 | Inference acceleration for large language models using ‘stairs’ assisted greedy generation はコメントを受け付けていません

Physics-informed nonlinear vector autoregressive models for the prediction of dynamical systems

要約 機械学習技術は、微分方程式を解くために最近大きな関心を集めています。 これ … 続きを読む

カテゴリー: 34A34, 37M15, 65L05, 68T07, cs.LG, math.DS | Physics-informed nonlinear vector autoregressive models for the prediction of dynamical systems はコメントを受け付けていません

Scalify: scale propagation for efficient low-precision LLM training

要約 float8 などの低精度形式は、大規模な言語モデルのトレーニングと推論の … 続きを読む

カテゴリー: 68T07, cs.LG, I.2.7 | Scalify: scale propagation for efficient low-precision LLM training はコメントを受け付けていません

Coarse-to-Fine Proposal Refinement Framework for Audio Temporal Forgery Detection and Localization

要約 最近、新しい形式の音声部分偽造がフォレンジックに課題をもたらしており、長時 … 続きを読む

カテゴリー: 68T07, 68T10, cs.CV, cs.MM, cs.SD, eess.AS, I.2 | Coarse-to-Fine Proposal Refinement Framework for Audio Temporal Forgery Detection and Localization はコメントを受け付けていません

TaylorShift: Shifting the Complexity of Self-Attention from Squared to Linear (and Back) using Taylor-Softmax

要約 アテンション メカニズムの 2 次の複雑さは、Transformer を使 … 続きを読む

カテゴリー: 68T07, cs.AI, cs.LG, I.2.10 | TaylorShift: Shifting the Complexity of Self-Attention from Squared to Linear (and Back) using Taylor-Softmax はコメントを受け付けていません

Deep Learning without Global Optimization by Random Fourier Neural Networks

要約 ランダムな複雑な指数関数的活性化関数を利用する、さまざまなディープ ニュー … 続きを読む

カテゴリー: 60J22, 65C05, 65C40, 65T40, 68T07, 90C15, cs.LG, cs.NA, math.NA, stat.ML | Deep Learning without Global Optimization by Random Fourier Neural Networks はコメントを受け付けていません

Invariant Consistency for Knowledge Distillation

要約 知識蒸留 (KD) には、あるニューラル ネットワークから別のニューラル … 続きを読む

カテゴリー: 68T07, cs.AI, cs.CV, I.2 | Invariant Consistency for Knowledge Distillation はコメントを受け付けていません