月別アーカイブ: 2023年5月

Latent Combinational Game Design

要約 我々は、潜在的な組み合わせゲーム設計、つまり、深い生成潜在変数モデルを使用 … 続きを読む

カテゴリー: cs.AI, cs.LG | Latent Combinational Game Design はコメントを受け付けていません

A Mathematical Runtime Analysis of the Non-dominated Sorting Genetic Algorithm III (NSGA-III)

要約 非支配的並べ替え遺伝的アルゴリズム II (NSGA-II) は、現実世界 … 続きを読む

カテゴリー: cs.AI, cs.NE | A Mathematical Runtime Analysis of the Non-dominated Sorting Genetic Algorithm III (NSGA-III) はコメントを受け付けていません

Augmented Random Search for Multi-Objective Bayesian Optimization of Neural Networks

要約 生成されるセンサー データの増加量を処理するために、小型デバイスにディープ … 続きを読む

カテゴリー: cs.AI, cs.LG | Augmented Random Search for Multi-Objective Bayesian Optimization of Neural Networks はコメントを受け付けていません

What’s the Situation with Intelligent Mesh Generation: A Survey and Perspectives

要約 インテリジェント メッシュ生成 (IMG) は、機械学習技術を利用してメッ … 続きを読む

カテゴリー: cs.AI, cs.CG | What’s the Situation with Intelligent Mesh Generation: A Survey and Perspectives はコメントを受け付けていません

Transferring Learning Trajectories of Neural Networks

要約 ディープ ニューラル ネットワーク (DNN) のトレーニングには計算コス … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ML | Transferring Learning Trajectories of Neural Networks はコメントを受け付けていません

To Copy Rather Than Memorize: A Vertical Learning Paradigm for Knowledge Graph Completion

要約 埋め込みモデルは、ナレッジ グラフ補完 (KGC) タスクにおいて大きな威 … 続きを読む

カテゴリー: cs.AI, cs.CL | To Copy Rather Than Memorize: A Vertical Learning Paradigm for Knowledge Graph Completion はコメントを受け付けていません

Dr.ICL: Demonstration-Retrieved In-context Learning

要約 大規模言語モデル (LLM) に、モデルのパラメーターを調整するのではなく … 続きを読む

カテゴリー: cs.AI, cs.CL | Dr.ICL: Demonstration-Retrieved In-context Learning はコメントを受け付けていません

Separating form and meaning: Using self-consistency to quantify task understanding across multiple senses

要約 大規模言語モデル (LLM) の機能が驚異的なペースで向上しているため、理 … 続きを読む

カテゴリー: cs.AI, cs.CL | Separating form and meaning: Using self-consistency to quantify task understanding across multiple senses はコメントを受け付けていません

WYWEB: A NLP Evaluation Benchmark For Classical Chinese

要約 特定のドメイン内のさまざまな NLP モデルの全体的なパフォーマンスを完全 … 続きを読む

カテゴリー: cs.AI, cs.CL | WYWEB: A NLP Evaluation Benchmark For Classical Chinese はコメントを受け付けていません

Memory-Efficient Fine-Tuning of Compressed Large Language Models via sub-4-bit Integer Quantization

要約 大規模言語モデル (LLM) を完全に微調整する際の法外なコストを軽減する … 続きを読む

カテゴリー: cs.AI, cs.LG | Memory-Efficient Fine-Tuning of Compressed Large Language Models via sub-4-bit Integer Quantization はコメントを受け付けていません