I.2.7」カテゴリーアーカイブ

MuChin: A Chinese Colloquial Description Benchmark for Evaluating Language Models in the Field of Music

要約 急速に進化するマルチモーダル大規模言語モデル (LLM) では、音楽の理解 … 続きを読む

カテゴリー: 68Txx(Primary)14F05, 91Fxx(Secondary), cs.AI, cs.MM, cs.SD, eess.AS, I.2.7 | MuChin: A Chinese Colloquial Description Benchmark for Evaluating Language Models in the Field of Music はコメントを受け付けていません

The Hidden Attention of Mamba Models

要約 Mamba レイヤーは、NLP、長距離シーケンス処理、コンピューター ビジ … 続きを読む

カテゴリー: cs.LG, F.2.2, I.2.7 | The Hidden Attention of Mamba Models はコメントを受け付けていません

Compressing Large Language Models by Streamlining the Unimportant Layer

要約 大規模言語モデル (LLM) は、さまざまな自然言語タスクやドメインに広く … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Compressing Large Language Models by Streamlining the Unimportant Layer はコメントを受け付けていません

Enhancing Lithological Mapping with Spatially Constrained Bayesian Network (SCB-Net): An Approach for Field Data-Constrained Predictions with Uncertainty Evaluation

要約 地質図は地球科学にとって非常に貴重な情報源です。 これらは、鉱物探査、自然 … 続きを読む

カテゴリー: cs.CV, cs.LG, eess.IV, F.2.2, I.2.7 | Enhancing Lithological Mapping with Spatially Constrained Bayesian Network (SCB-Net): An Approach for Field Data-Constrained Predictions with Uncertainty Evaluation はコメントを受け付けていません

TrustAI at SemEval-2024 Task 8: A Comprehensive Analysis of Multi-domain Machine Generated Text Detection Techniques

要約 大規模言語モデル (LLM) は、幅広いユーザー クエリにわたって流暢なコ … 続きを読む

カテゴリー: cs.CL, I.2.7 | TrustAI at SemEval-2024 Task 8: A Comprehensive Analysis of Multi-domain Machine Generated Text Detection Techniques はコメントを受け付けていません

Align-to-Distill: Trainable Attention Alignment for Knowledge Distillation in Neural Machine Translation

要約 スケーラブルなディープ モデルと大規模なデータセットの出現により、ニューラ … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, I.2.7 | Align-to-Distill: Trainable Attention Alignment for Knowledge Distillation in Neural Machine Translation はコメントを受け付けていません

Align-to-Distill: Trainable Attention Alignment for Knowledge Distillation in Neural Machine Translation

要約 スケーラブルなディープ モデルと大規模なデータセットの出現により、ニューラ … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, I.2.7 | Align-to-Distill: Trainable Attention Alignment for Knowledge Distillation in Neural Machine Translation はコメントを受け付けていません

LLM-based Extraction of Contradictions from Patents

要約 すでに 1950 年代から TRIZ は、特許と特許によって解決される技術 … 続きを読む

カテゴリー: cs.CL, I.2.7 | LLM-based Extraction of Contradictions from Patents はコメントを受け付けていません

Emergent communication and learning pressures in language models: a language evolution perspective

要約 言語モデルと人間は 2 種類の学習システムです。 共通点を見つけたり促進し … 続きを読む

カテゴリー: cs.CL, I.2.7 | Emergent communication and learning pressures in language models: a language evolution perspective はコメントを受け付けていません

Natural Language as Polices: Reasoning for Coordinate-Level Embodied Control with LLMs

要約 ロボットの行動計画の問題に対処する LLM を使用した実験結果を示します。 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.RO, I.2.7 | Natural Language as Polices: Reasoning for Coordinate-Level Embodied Control with LLMs はコメントを受け付けていません